Коли варто по-справжньому ставитися до «апокаліптичних» попереджень про ШІ?

Це одна з ключових підтем у спробі Ілона Маска зупинити комерційний бізнес OpenAI. Адвокати Маска стверджують, що організацію створювали як неприбуткову структуру, зосереджену на безпеці ШІ, але вона «збилася з курсу» в погоні за прибутком. Щоб це довести, вони посилаються на старі листи та заяви засновників про потребу у «суспільно корисній противазі» Google DeepMind.
Сьогодні вони викликали єдиного експерта, який мав прямо говорити про самі технології ШІ: Стюарта Рассела, професора інформатики Каліфорнійського університету в Берклі, який десятиліттями вивчає штучний інтелект. Його завданням було дати загальний контекст про ШІ та показати, що ця технологія достатньо небезпечна, аби про неї варто було серйозно турбуватися.
Рассел підписав відкритого листа в березні 2023 року із закликом зробити шестимісячну паузу в дослідженнях ШІ. Певною іронією виглядає те, що той самий лист підписав і Маск — саме тоді, коли запускав xAI, власну комерційну лабораторію з розробки ШІ.
Рассел розповів присяжним і судді Івонн Гонсалес Роджерс, що з розвитком ШІ пов’язаний широкий спектр ризиків — від кіберзагроз до проблем невідповідності цілей системи людським намірам, а також «переможець отримує все» у гонитві за створенням загального штучного інтелекту (AGI). Зрештою, за його словами, між прагненням до AGI та безпекою існує напруга.
Більш масштабні застереження Рассела щодо екзистенційних загроз від неконтрольованого ШІ не пролунали в залі суду: після заперечень адвокатів OpenAI суддя обмежила обсяг його свідчень. Але Рассел уже давно критикує «гонку озброєнь», яку створили провідні лабораторії світу, змагаючись, хто першим досягне AGI, і закликає уряди до жорсткішого регулювання цієї сфери.
Адвокати OpenAI під час перехресного допиту зосередилися на тому, що Рассел безпосередньо не оцінював корпоративну структуру організації чи її конкретні політики безпеки.
Тим часом і суддя, і присяжні, і цей кореспондент вирішуватимуть, наскільки вагомим є зв’язок між корпоративною жадібністю та занепокоєннями щодо безпеки ШІ. Практично всі співзасновники OpenAI наполегливо попереджали про ризики ШІ, водночас підкреслюючи його переваги, намагаючись розробляти технологію якнайшвидше — і паралельно вибудовуючи плани створення підконтрольних їм комерційних структур навколо ШІ.
Зовні одна з ключових проблем виглядає так: уже після створення OpenAI всередині організації дедалі чіткіше усвідомлювали, що для успіху потрібні значно більші витрати на обчислювальні ресурси. А такі гроші могли дати лише інвестори, орієнтовані на прибуток. Страх засновників перед тим, що AGI опиниться в руках однієї структури, підштовхнув їх до пошуку капіталу, який зрештою і розколов команду, запустивши нинішню гонку — і привівши сторони до цього судового позову.
Схожа динаміка вже проявляється й на державному рівні. Ініціатива сенатора Берні Сандерса щодо закону про мораторій на будівництво дата-центрів відображає ті ж страхи перед ШІ, про які говорили Ілон Маск, Сем Альтман, Джеффрі Хінтон та інші. Ходан Омаар з галузевої організації Center for Data Innovation розкритикувала Сандерса за те, що він посилається лише на їхні застереження, ігноруючи надії. Вона сказала TechCrunch, що «незрозуміло, чому громадськість повинна ігнорувати все, що говорять техномільярдери, за винятком тих випадків, коли їхні слова можна пристосувати до підтримки хиткої позиції».
Тепер обидві сторони у справі просять суд зробити саме це: сприйняти частину аргументів Альтмана та Маска серйозно, але відкинути ті частини, які менш корисні для їхньої правової позиції.
Виправлення: у статті оновлено та виправлено ім’я Стюарта Рассела, професора інформатики Каліфорнійського університету в Берклі.


