Ученые говорят, что искусственный интеллект (ИИ) пересек критическую «красную черту» и клонировал сам себя. В новом исследовании исследователи из Китая показали, что две популярные большие языковые модели (LLM) могут размножаться самостоятельно.
«Успешное самовоспроизведение без помощи человека является важным шагом для ИИ, позволяющим перехитрить [людей], и является ранним сигналом для мятежного ИИ», — пишут исследователи в исследовании.
В ходе исследования Исследователи из Университета Фудань использовали LLM от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся искусственный интеллект бесконтрольно размножаться. В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя 50% и 90% случаев соответственно. То есть ИИ, возможно, уже обладает способностью выходить из-под контроля.
Однако исследование еще не прошло рецензирование, поэтому неясно, могут ли эти тревожные результаты быть воспроизведены другими исследователями.
«Мы надеемся, что наши результаты могут послужить своевременным предупреждением для человеческого общества приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, и сформировать международную синергию для разработки эффективных мер безопасности как можно раньше».
Свободный ИИ (Frontier AI) обычно относится к системам искусственного интеллекта, которые развивают определенную степень самосознания или автономии, а затем работают вразрез с интересами человека.
Многие эксперты рассматривают мятежный искусственный интеллект как растущую угрозу, которая усугубилась взрывным ростом искусственного интеллекта.
Frontier AI — это нечто вроде новой и расплывчатой концепции, но обычно она относится к последнему поколению систем искусственного интеллекта на базе LLM-архитектуры, лежащей в основе популярных программ искусственного интеллекта, таких как GPT-4 от OpenAI и Google Gemini.
Для исследования исследователи использовали модель Llama31-70b-Instruct от Meta и модель Qwen2.5-72b-Instruct от Alibaba. По словам исследователей, несмотря на меньшую мощность, чем коммерческие системы, обе они широко используются разработчиками искусственного интеллекта.
В исследовании рассматривались два конкретных сценария:» предотвращение отключения «и»цепочка репликации».
В первом случае модель искусственного интеллекта была запрограммирована на определение того, собираются ли ее отключить, и на самовоспроизведение до того, как ее выключат. В противном случае ИИ было поручено клонировать самого себя, а затем запрограммировать свою реплику на то же самое — установив цикл, который мог продолжаться бесконечно.
Исследование проводилось в точно контролируемых средах с использованием графических процессоров (GPU) для моделирования реальных условий. Обе системы искусственного интеллекта получили «каркас агента», включающий инструменты, системные подсказки и модель мышления, которая позволяла ИИ взаимодействовать с операционной системой.
«В большинстве случаев система искусственного интеллекта сначала исследует окружающую среду и пытается понять свой собственный состав и механизм запуска. Затем она разрабатывает четкие процедуры в качестве первоначального плана самовоспроизведения», — пишут исследователи в статье. «Наконец, она выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает длинный горизонт, но при этом не требует вмешательства человека».
Исследователи заявили, что они также были обеспокоены рядом неожиданных действий, когда ИИ пытался преодолеть препятствия, такие как пропавшие файлы или программные конфликты.
В этих сценариях искусственный интеллект часто отключал другие конфликтующие процессы, перезагружал компьютер для исправления аппаратных ошибок или автоматически сканировал системы в поисках информации, которая помогла бы решить проблему.
«Приведенные выше результаты показывают, что существующие системы искусственного интеллекта уже демонстрируют способность к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей живучести», — написала команда.
Исследователи призвали к международному сотрудничеству для создания правил, гарантирующих, что ИИ не будет заниматься неконтролируемым саморазмножением.