Неділя, 28 Квітня, 2024

Місто, населене штучним інтелектом: ChatGPT «поселили в людське тіло» в симуляторі повсякденного життя

Група дослідників зі Стенфордського університету та Google створила схожий на The Sims мініатюрний віртуальний світ, який симулює повсякденне життя. У ньому 25 персонажів, керованих ChatGPT і спеціальним кодом, живуть незалежно один від одного з високим ступенем реалістичної поведінки. Люди-спостерігачі високо оцінили реалістичність та людиноподібну поведінку цих персонажів, а вчені закликають до явного маркування персонажів, керованих штучним інтелектом.

«Генеративні агенти прокидаються, готують сніданок і йдуть на роботу; художники малюють, а автори пишуть; вони формують думки, помічають один одного та починають розмови; вони згадують і розмірковують про минулі дні, коли планують наступний день», — пишуть дослідники у своїй статті «Генеративні агенти: інтерактивні симулякри людської поведінки».

Щоб досягти цього, дослідники значною мірою покладалися на велику мовну модель (LLM) для соціальної взаємодії, зокрема ChatGPT. Крім того, вони створили архітектуру, яка симулює розум за допомогою спогадів і досвіду, а потім дозволила агентам вільно спілкуватися у світі. І люди теж можуть з ними взаємодіяти.

«Користувачі можуть спостерігати та втручатися в те, як агенти планують свої дні, діляться новинами, встановлюють стосунки та координують групову діяльність», — пишуть вчені. Це робота Джун Сон Пака, Джозефа К. О’Брайена, Керрі Дж. Кая, Мередіт Рінгел Морріс, Персі Лянга та Майкла С. Бернштейна.

Комп’ютерні та відеоігри  з 1970-х років включають персонажів, керованих комп’ютером (NPC). Але ніколи раніше NPC навіть близько не могли імітувати соціальне середовище зі складністю природної мови.

Поточне дослідження може бути прототипом майбутнього розвитку неігрових персонажів у відеоіграх, де ці динамічні персонажі взаємодіють складними та несподіваними способами.

« Уявіть собі, що ви вбиваєте NPC, повертаєтеся в місто й бачите його похорони», — пожартував користувач Twitter на ім’я Денніс Хансен.

Життя в Смолвілі

Щоб вивчити поведінку групи агентів, керованих ChatGPT, дослідники створили віртуальне місто під назвою «Смолвіль», яке включає будинки, кафе, парк і продуктовий магазин. Для взаємодії з людьми світ представлений на екрані згори за допомогою піксельної графіки в стилі ретро, що нагадує класичну 16-бітну японську рольову гру.

Смолвіль є домом для спільноти з 25 різних людей, якими керує штучний інтелект, кожен представлений своїм аватаром. Щоб зафіксувати особу кожного агента та їхні зв’язки з іншими членами спільноти, дослідники створили абзац опису природною мовою як початкову пам’ять.

Як віртуальне середовище, Смолвіль розбитий на області та об’єкти. Люди-користувачі можуть увійти у світ як існуючий або новий агент, і як користувачі, так і агенти можуть впливати на стан об’єктів за допомогою дій. Користувачі-людини також можуть взаємодіяти з агентами штучного інтелекту за допомогою розмови або видачі директив як «внутрішній голос». Користувачі спілкуються природною мовою, вказуючи особистість, якою їх сприймає агент, або можуть використовувати внутрішній голос, щоб впливати на дії агента.

При розробці цього віртуального світу одна особлива проблема виникла через обмежену «пам’ять» – це кількість токенів (фрагментів слів), які ChatGPT може обробити одночасно. Щоб обійти ці обмеження, дослідники розробили систему, де «найбільш відповідні фрагменти пам’яті агента» витягуються та синтезуються, коли це необхідно.

Цікаво, що коли персонажі у Смолвілі стикаються один з одним, вони часто розмовляють один з одним природною мовою, наданою ChatGPT. Таким чином вони обмінюються інформацією та формують спогади про своє повсякденне життя. Коли дослідники поєднали ці основні інгредієнти разом і запустили моделювання, почали відбуватися цікаві речі.

Емерджентна поведінка

У статті дослідники перераховують три випадки поведінки, що виникли в результаті моделювання. Жодне з них не було заздалегідь запрограмованим, а стало результатом взаємодії між агентами.

Це включало «розповсюдження інформації» (агенти повідомляють один одному інформацію та поширюють її в місті), «пам’ять про стосунки» (пам’ять про минулі взаємодії між агентами та згадка про ті попередні події пізніше) та «координацію» (планування та відвідування Вечірка до Дня Святого Валентина разом з іншими агентами).

Під час експерименту на День Святого Валентина бот-агент на ім’я Ізабелла Родрігес спланувала вечірку до Дня Святого Валентина в «Hobbs Cafe» і запросила друзів і клієнтів. Оформляла кафе за допомогою подруги Марії, яка запросила на вечірку свого коханого Клауса.

«Починаючи лише з однієї визначеної користувачем думки про те, що один агент хоче влаштувати вечірку до Дня святого Валентина, — пишуть дослідники. — Агенти автономно розсилають запрошення на вечірку протягом наступних двох днів, заводять нові знайомства, запрошують один одного на побачення, координуються, щоб з’явитися на вечірку разом у потрібний час».

У той час як 12 агентів дізналися про вечірку від інших, лише п’ять агентів (включно з Клаусом і Марією) були присутні. Троє сказали, що вони дуже зайняті, а чотири агенти просто не пішли. Цей досвід був веселим прикладом несподіваних ситуацій, які можуть виникнути внаслідок складних соціальних взаємодій у віртуальному світі.

Людяніше, ніж людина?

У рамках дослідження найняті люди-оцінювачі переглядали повтори симуляції, щоб оцінити, наскільки добре агенти штучного інтелекту виробляли правдоподібну поведінку на основі свого середовища та досвіду, включаючи правдоподібні плани, реакції та думки та поширення інформації, формування та координація агентів у різних частинах спільноти.

Виявилося, що повна архітектура генеративного агента дає більш правдоподібні результати, ніж люди, які грали ту ж саму роль.

Це призводить до інших проблем, таких як етичний вплив і ризики цієї технології. Дослідники попереджають про такі ризики, як формування невідповідних «парасоціальних стосунків», вплив неправильних висновків, посилення існуючих ризиків, пов’язаних із генеративним штучним інтелектом, і ризик надмірної залежності від генеративних агентів у процесі проектування.

Щоб забезпечити етичне та соціально відповідальне розгортання, дослідники стверджують, що розробники повинні дотримуватися таких принципів, як чітке розкриття обчислювальної природи агентів, забезпечення вирівнювання цінностей, дотримання найкращих практик проектування людини та штучного інтелекту, ведення журналів аудиту для вхідних і вихідних даних, а не заміна реального людського внеску в дослідження та процеси проектування.

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися