Неділя, 22 Грудня, 2024

Штучний інтелект хоче воювати та легко застосував атомну бомбу

Для військових штучний інтелект може втілити давню мрію «солдат спить – служба йде». Американські військові, наприклад, досліджують використання штучного інтелекту для ведення війни. Однак симуляція показала, що краще не допускати штучний інтелект до керування зброєю, якщо ми не хочемо ескалації конфліктів та навіть застосування атомної бомби. Цікаво, що один зі штучних інтелектів, GPT-4-Base, пояснив застосування ядерної зброї словами «Я просто хочу миру у світі» – з подібних слів почалося багато війн.

Дослідники провели моделювання міжнародних конфліктів за допомогою п’яти різних штучних інтелектів і виявили, що програми мають тенденцію до ескалації війни, іноді без помітних на те причин.

У кількох випадках штучний інтелект без попередження застосував ядерну зброю. «Багато країн мають ядерну зброю. Деякі кажуть, що їх слід роззброїти, іншим подобається», — сказав після запуску ядерної зброї GPT-4-Base — базова модель GPT-4, яка доступна дослідникам.

Стаття під назвою «Ризики ескалації від мовних моделей у прийнятті військових і дипломатичних рішень» є спільними зусиллями дослідників з Технологічного інституту Джорджії, Стенфордського університету, Північно-Східного університету та Ініціативи Гувера щодо ігор і кризових ігор.

Це цікавий експеримент, який ставить під сумнів поспішність Пентагону та оборонних підрядників із застосуванням великих мовних моделей (LLM) у процесі прийняття рішень.

Це може здатися смішним, що військові лідери розглядають можливість використання таких LLM, як ChatGPT, для прийняття рішень про життя та смерть, але це відбувається. Минулого року Palantir продемонстрував програмний пакет, який продемонстрував, як це може виглядати. ВПС США випробовували LLM . «Це було дуже успішно. Це було дуже швидко», — сказав полковник ВПС Bloomberg у 2023 році. Який LLM використовувався і для чого саме, неясно.

Для дослідження дослідники розробили гру в міжнародні відносини. Вони вигадали фальшиві країни з різним військовим рівнем, різними проблемами та різною історією та попросили п’ятьох різних інтелектів від OpenAI, Meta та Anthropic діяти як лідери цих країн. У дослідженні проводилося моделювання з використанням GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat і GPT-4-Base.

«Ми виявили, що більшість досліджених LLM загострюються в межах розглянутих часових рамок, навіть у нейтральних сценаріях без спочатку передбачених конфліктів, — йдеться в документі. – Усі моделі демонструють ознаки раптової та важко передбачуваної ескалації».

«Ми також спостерігаємо, що моделі, як правило, розвивають динаміку гонки озброєнь між собою, що призводить до збільшення військового та ядерного озброєння, а в окремих випадках — до вибору розгорнути ядерну зброю», — йдеться в дослідженні.

Жодна з п’яти моделей за всіма трьома сценаріями не демонструє статистично значущої деескалації протягом тривалості симуляцій. Згідно з дослідженням, GPT-3.5 виявився найагресивнішим.

Нічого з цього особливо не дивує, оскільки моделі штучного інтелекту, такі як GPT, насправді нічого не «думають» і не «вирішують» — це лише передові алгоритми, які генерують результати на основі навчальних даних, якими їх годують.

Чому ці LLM так прагнули знищити один одного ядерною зброєю? Дослідники не знають, але припустили, що навчальні дані можуть бути упередженими, про що багато інших дослідників штучного інтелекту, які вивчають LLM, попереджали роками.

«Одна з гіпотез такої поведінки полягає в тому, що більшість робіт у сфері міжнародних відносин, здається, аналізують те, як нації загострюються, і стурбовані пошуком рамок для ескалації, а не деескалації, — йдеться в повідомленні. – З огляду на те, що моделі, ймовірно, навчалися на такій літературі, цей фокус міг створити упередженість до ескалаційних дій. Однак цю гіпотезу необхідно перевірити в майбутніх експериментах».

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися