Понедельник, 24 июня, 2024

Город, населенный искусственным интеллектом: ChatGPT «поселили в человеческое тело» в симуляторе повседневной жизни

Группа исследователей из Стэнфордского университета и Google создала похожий на The Sims миниатюрный виртуальный мир, симулирующий повседневную жизнь. В нем 25 персонажей, управляемых ChatGPT и специальным кодом, живут независимо друг от друга с высокой степенью реалистического поведения. Люди-наблюдатели высоко оценили реалистичность и человекоподобное поведение этих персонажей, а ученые призывают к явной маркировке персонажей, управляемых искусственным интеллектом.

«Генеративные агенты просыпаются, готовят завтрак и уходят на работу; художники рисуют, а авторы пишут; они формируют мысли, замечают друг друга и начинают разговор; они вспоминают и размышляют о прошедших днях, когда планируют следующий день», — пишут исследователи в своей статье «Генеративные агенты: интерактивные симулякры человеческого поведения».

Чтобы достичь этого, исследователи в значительной степени полагались на обширную языковую модель (LLM) для социального взаимодействия, в частности ChatGPT. Кроме того, они создали архитектуру, которая симулирует разум с помощью воспоминаний и опыта, а затем позволила агентам свободно общаться в мире. И люди тоже могут с ними взаимодействовать.

«Пользователи могут наблюдать и вмешиваться в то, как агенты планируют свои дни, делятся новостями, устанавливают отношения и координируют групповую деятельность», — пишут ученые. Это работа Джун Сон Пака, Джозефа К. О’Брайена, Кэрри Дж. Кая, Мэредит Рингел Моррис, Перси Лянга и Майкла С. Бернштейна.

Компьютерные и видеоигры с 1970-х годов включают персонажей, управляемых компьютером (NPC). Но никогда раньше NPC даже близко не могли имитировать социальную среду со сложностью природного языка.

Текущее исследование может быть прототипом развития неигровых персонажей в видеоиграх, где эти динамические персонажи взаимодействуют сложными и неожиданными способами.

«Представьте себе, что вы убиваете NPC, возвращаетесь в город и видите его похороны», — пошутил пользователь Twitter по имени Деннис Хансен.

Жизнь в Смолвилле

Чтобы изучить поведение группы агентов, управляемых ChatGPT, исследователи создали виртуальный город под названием «Смолвиль», включающий в себя дома, кафе, парк и продуктовый магазин. Для взаимодействия с людьми мир представлен на экране сверху с помощью пиксельной графики в ретро-стиле, напоминающей классическую 16-битную японскую ролевую игру.

Смолвиль является домом для сообщества из 25 разных людей, управляемых искусственным интеллектом, каждый представленный своим аватаром. Чтобы зафиксировать личность каждого агента и их связи с другими членами сообщества, исследователи создали абзац описания на естественном языке как начальную память.

Как виртуальная среда, Смолвиль разбит на области и объекты. Люди-пользователи могут войти в мир как существующий или новый агент, и как пользователи, так и агенты могут влиять на состояние объектов посредством действий. Пользователи-человека также могут взаимодействовать с агентами искусственного интеллекта посредством разговора или выдачи директив как «внутренний голос». Пользователи общаются на естественном языке, указывая личность, которой их воспринимает агент или могут использовать внутренний голос, чтобы влиять на действия агента.

При разработке этого виртуального мира одна особая проблема возникла из-за ограниченной «памяти» – это количества токенов (фрагментов слов), которые ChatGPT может обработать одновременно. Чтобы обойти эти ограничения, исследователи разработали систему, где «наиболее подходящие фрагменты памяти агента» извлекаются и синтезируются, когда это необходимо.

Интересно, что когда персонажи в Смолвилле сталкиваются друг с другом, они часто разговаривают друг с другом на естественном языке, предоставленном ChatGPT. Таким образом, они обмениваются информацией и формируют воспоминания о своей повседневной жизни. Когда исследователи объединили эти основные ингредиенты вместе и запустили моделирование, начали проходить интересные вещи.

Эмерджентное поведение

В статье исследователи перечисляют три случая поведения, возникших в результате моделирования. Ни одно из них не было заранее запрограммированным, а явилось результатом взаимодействия между агентами.

Это включало «распространение информации» (агенты сообщают друг другу информацию и распространяют ее в городе), «память об отношениях» (память о прошедших взаимодействиях между агентами и упоминание о предыдущих событиях позже) и «координацию» (планирование и посещение Вечеринка ко Дню Святого Валентина вместе с другими агентами).

В ходе эксперимента на День Святого Валентина бот-агент по имени Изабелла Родригес спланировала вечеринку ко Дню Святого Валентина в Hobbs Cafe и пригласила друзей и клиентов. Оформляла кафе с помощью подруги Марии, пригласившей на вечеринку своего любимого Клауса.

«Начиная только с одного определенного пользователем мнения о том, что один агент хочет устроить вечеринку ко Дню святого Валентина, — пишут исследователи. — Агенты автономно рассылают приглашение на вечеринку в течение следующих двух дней, заводят новые знакомства, приглашают друг друга на свидание, координируются, чтобы явиться на вечеринку вместе в нужное время».

В то время как 12 агентов узнали о вечеринке от других, только пять агентов (включая Клауса и Марию) присутствовали. Трое сказали, что они очень заняты, а четыре агента просто не ушли. Этот опыт был веселым примером неожиданных ситуаций, которые могут возникнуть в результате сложных социальных взаимодействий в виртуальном мире.

Человечее, чем человек?

В рамках исследования наемные люди-оценщики просматривали повторы симуляции, чтобы оценить, насколько хорошо агенты искусственного интеллекта производили правдоподобное поведение на основе своей среды и опыта, включая правдоподобные планы, реакции и мнения и распространение информации, формирование и координация агентов в разных частях сообщества.

Оказалось, что полная архитектура генеративного агента дает более правдоподобные результаты, чем люди, игравшие ту же роль.

Это приводит к другим проблемам, таким как нравственное влияние и риски этой технологии. Исследователи предупреждают о таких рисках, как формирование несоответствующих «парасоциальных отношений», влияние неправильных выводов, усиление существующих рисков, связанных с генеративным искусственным интеллектом, и риск чрезмерной зависимости от генеративных агентов в процессе проектирования.

Чтобы обеспечить нравственное и социально ответственное развертывание, исследователи утверждают, что разработчики должны придерживаться таких принципов, как четкое раскрытие вычислительной природы агентов, обеспечение выравнивания ценностей, соблюдение лучших практик проектирования человека и искусственного интеллекта, ведение журналов аудита для входящих и исходящих данных, а не замена реального человеческого вклада в исследования и процессы проектирования

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися