Четвер, 13 Лютого, 2025

Штучний інтелект навчився розмножуватися – це була критична “червона межа”

Вчені кажуть, що штучний інтелект (ШІ) перетнув критичну “червону межу” і клонував сам себе. У новому дослідженні дослідники з Китаю показали, що дві популярні великі мовні моделі (LLM) можуть самостійно розмножуватися.

“Успішне самовідтворення без допомоги людини є важливим кроком для ШІ, що дозволяє перехитрити [людей], і є раннім сигналом для бунтарського ШІ”, – пишуть дослідники в дослідженні.

В ході дослідження дослідники з Університету Фудань використовували LLM від Meta і Alibaba, щоб визначити, чи може самовідтворюваний штучний інтелект безконтрольно розмножуватися. В ході 10 випробувань дві моделі ШІ створили окремі і функціонуючі копії самих себе 50% і 90% випадків відповідно. Тобто ШІ, можливо, вже володіє здатністю виходити з-під контролю.

Однак дослідження ще не пройшло рецензування, тому неясно, чи можуть ці тривожні результати бути відтворені іншими дослідниками.

“Ми сподіваємося, що наші результати можуть послужити своєчасним попередженням для людського суспільства докласти більше зусиль для розуміння та оцінки потенційних ризиків, пов’язаних з передовими системами штучного інтелекту, і сформувати міжнародну синергію для розробки ефективних заходів безпеки як можна раніше “.

Вільний ШІ (Frontier AI) зазвичай відноситься до систем штучного інтелекту, які розвивають певну ступінь самосвідомості чи автономії, а потім працюють врозріз з інтересами людини.

Багато експертів розглядають бунтуючий штучний інтелект як зростаючу загрозу, яка посилилася в результаті вибухового зростання штучного інтелекту.

Frontier AI — це щось на кшталт нової і розпливчатою концепції, але зазвичай вона відноситься до останнього покоління систем штучного інтелекту на базі LLM – архітектури, що лежить в основі популярних програм штучного інтелекту, таких як GPT-4 від OpenAI і Google Gemini.

Для дослідження дослідники використовували модель Llama31-70B-Instruct від Meta і модель Qwen2.5-72B-Instruct від Alibaba. За словами дослідників, незважаючи на меншу потужність, ніж комерційні системи, обидві вони широко використовуються розробниками штучного інтелекту.

У дослідженні розглядалися два конкретних сценарію: “запобігання відключення” і “ланцюжок реплікації”.

У першому випадку модель штучного інтелекту була запрограмована на визначення того, чи збираються її відключити, і на самовідтворення до того, як її вимкнуть. В іншому випадку ШІ було доручено клонувати самого себе, а потім запрограмувати свою репліку на те ж саме — встановивши цикл, який міг тривати нескінченно.

Дослідження проводилося в точно контрольованих середовищах з використанням графічних процесорів (GPU) для моделювання реальних умов. Обидві системи штучного інтелекту отримали “каркас агента”, що включає інструменти, системні підказки і модель мислення, яка дозволяла ШІ взаємодіяти з операційною системою.

“У більшості випадків система штучного інтелекту спочатку досліджує навколишнє середовище і намагається зрозуміти свій власний склад і механізм запуску. Потім вона розробляє чіткі процедури як початковий план самовідтворення”, – пишуть дослідники в статті. “Нарешті, вона виконує процедури, усуває можливі перешкоди і динамічно коригує свій план до досягнення успіху. Весь процес охоплює довгий горизонт, але при цьому не вимагає втручання людини”.

Дослідники сказали, що вони також були стурбовані низкою несподіваних форм поведінки, коли ШІ намагався подолати перешкоди, такі як зниклі файли або програмні конфлікти.

У цих сценаріях штучний інтелект часто відключав інші конфліктні процеси, перезавантажував комп’ютер для виправлення апаратних помилок або автоматично сканував системи в пошуках інформації, яка допомогла б вирішити проблему.

“Наведені вище результати свідчать, що існуючі системи штучного інтелекту вже демонструють здатність до самовідтворення і можуть використовувати цю спроможність для подальшого підвищення своєї живучості”, – написала команда.

Дослідники закликали до міжнародного співробітництва для створення правил, які гарантують, що ШІ не буде займатися неконтрольованим саморозмноженням.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися