«Комп’ютерним моделям потрібно 10, 70, 150 і 300 лайків відповідно, щоб перевершити середньостатистичного колегу по роботі, співмешканця або друга, члена сім’ї та подружжя», — написав Міхал Косінскі. Використовуючи лише «Подобається», дослідник міг пізнати когось краще, ніж люди, які працювали з цією людиною, виросли з нею або навіть одружилися з нею. Тобто штучний інтелект розумітиме нас краще, ніж наші знайомі та близькі люди.
Міхал Косінський — психолог-дослідник зі Стенфордського університету, який має нюх на актуальні теми. Він бачить свою роботу не лише як розвиток знань, але й як попередження світу про потенційні небезпеки, викликані наслідками комп’ютерних систем.
Його найвідоміші проекти стосувалися аналізу способів, за допомогою яких Facebook (тепер Meta ) отримав вражаюче глибоке розуміння своїх користувачів, коли вони натискали «подобається» на платформі.
Тепер він перейшов до вивчення дивовижних речей, які може робити ШІ. Наприклад, він проводив експерименти, які показують, що комп’ютери можуть передбачити сексуальність людини, аналізуючи цифрову фотографію її обличчя.
Його остання стаття, опублікована в рецензованому журналі Proceedings of the National Academy of Sciences вражає висновком. Великі мовні моделі, такі як OpenAI, стверджує він, перетнули кордон і використовують методи, аналогічні реальній думці, яка колись вважалася виключно сферою людей із плоті та крові (або принаймні ссавців).
Зокрема, він протестував OpenAI GPT-3.5 і GPT-4, щоб перевірити, чи вони оволоділи тим, що називається «теорією розуму». Це розвинена в дитинстві здатність людей, розуміти процеси мислення інших людей. Це важливий навик. Якщо комп’ютерна система не може правильно інтерпретувати те, що думають люди, її розуміння світу буде бідним, і вона зробить багато речей неправильно. Якщо моделі мають теорію розуму, вони на один крок ближче до відповідності та перевищення людських можливостей.
Косінскі перевірив штучні інтелекти і тепер каже, що його експерименти показують, що, зокрема, у GPT-4 теорія подібних до розуму здібностей «може виникнути як ненавмисний побічний продукт покращення мовних ШІ… Вони означають появу більшої кількості потужних і соціально кваліфікованих ШІ».
Косінскі бачить свою роботу в області штучного інтелекту як природний наслідок його попереднього занурення в лайки-дизлайки Facebook. «Я насправді не вивчав соціальні мережі, я вивчав людей», — каже він.
Коли OpenAI і Google почали створювати свої новітні генеративні моделі штучного інтелекту, каже він, вони думали, що навчають їх насамперед працювати з мовою. «Але насправді вони навчили модель людського розуму, тому що ви не можете передбачити, яке слово я скажу далі, не змоделювавши мій розум».
Косінскі обережно не стверджує, що ШІ повністю опанували теорію розуму — поки що. У своїх експериментах він представив чат-ботам кілька класичних проблем, з деякими з яких вони впоралися дуже добре. Але навіть найдосконаліша модель GPT-4 виходила з ладу в чверті випадків.
Успіхи, пише він, ставлять GPT-4 в один ряд із 6-річними дітьми. Непогано, враховуючи ранній стан розвитку ШІ. «Спостерігаючи за швидким прогресом штучного інтелекту, багато хто задається питанням, чи зможе ШІ досягти свідомості і коли це буде», — пише він.
«Якщо теорія розуму виникла спонтанно в цих моделях, це також припускає, що інші здібності можуть з’явитися далі», — каже він. «Завдяки цим здібностям вони можуть бути кращими в навчанні, впливі та маніпулюванні нами».
Він стурбований тим, що ми насправді не готові до ШІ, які розуміють спосіб мислення людей. Особливо, якщо вони дійдуть до того, що розумітимуть людей краще, ніж люди.
«Ми, люди, не симулюємо особистість — у нас є особистість», — каже він. «Тож я якось застряг у своїй особистості. Ці речі моделюють особистість. Є перевага в тому, що вони можуть мати будь-яку особистість у будь-який момент часу».
Це звучить так, ніби він описує соціопата, він загоряється поточним моментом. «Соціопат може надіти маску — він насправді не сумний, але може грати сумну людину». Ця сила хамелеона може зробити штучний інтелект кращим шахраєм. Без докорів сумління.
Деякі дослідники-психологи заперечують твердження Косінського. У відповідь на препринт, який Косінський опублікував на Arxiv на початку 2023 року, група дослідників штучного інтелекту написала статтю, в якій припустила, що він насправді спостерігав за «Розумним Гансом», маючи на увазі того відомого коня початку 20-го століття, який обманював людей начебто своїм вмінням робити математику і стежити за календарем.
Їхній аргумент полягав у тому, що якщо ШІ провалює хоча б один тест на теорію розуму, він провалюється повністю. «У ШІ можуть бути певні здібності до міркування, але це точно не повноцінно чи надійно, як у людей», — каже Веред Шварц, доцент кафедри інформатики в Університеті Британської Колумбії, який є одним із співавторів. «Ми провели багато різних тестів і точно не можемо стверджувати, що мовні моделі мають таку саму здатність [теорії розуму], як люди. А може бути, що це просто обман».
Шварц має на увазі той факт, що оскільки ШІ навчаються на величезних масивах інформації, деякі з них неминуче містять опубліковані наукові статті, в яких обговорюються експерименти, подібні до тих, які проводив Косінскі. Щоб знайти відповіді, GPT-4, можливо, заглибився у свої величезні навчальні матеріали.
Головний скептик ШІ Гері Маркус виявив , що тести, які використовував Косінскі, також були застосовані в класичних експериментах, які цитувалися в наукових статтях понад 11 000 разів. Це схоже на те, що ШІ вчили напам’ять ці тексти, щоб підробити теорію розуму.
Косінскі каже, що робота, виконана для останньої версії статті, усуває критику. Крім того, нещодавно були опубліковані деякі інші статті, які, здається, підтверджують його твердження, в тому числі в журналі Nature Human Behavior, де він виявив, що як GPT-3.5, так і GPT-4, хоч і не успішно виконували кожне завдання теорії розуму, «емонстрували вражаючу ефективність, а на інших завданнях перевищено людський рівень.
У електронному листі мені провідний автор, Джеймс Страхан, докторант з Університетського медичного центру Гамбург-Еппендорф, не стверджує, що ШІ оволоділи теорією розуму, але каже, що його команда спростувала звинувачення в шахрайстві. «Схоже, що ці здібності виходять за рамки простого повторення даних, які використовуються для навчання ШІ», — каже він, і що можливо реконструювати велику кількість інформації про психічні стани людини зі статистики природної мови.
Важливо те, чи ШІ ведуть себе так, наче володіють теорією розуму, і вони точно на шляху до цього. Навіть Шварц, який знищив деякі методи Косінського, визнає, що це можливо. «Якщо компанії продовжуватимуть вдосконалювати мовні моделі, можливо, колись у них буде [теорія розуму]», — каже вона.
Тому до Косинського, незважаючи на жорстку критику його творчості, варто прислухатися. Як до висновку його статті: теорія розуму навряд чи стане вершиною того, чого можуть досягти нейронні мережі в цьому всесвіті. Невдовзі ми можемо бути оточені системами штучного інтелекту, оснащеними когнітивними можливостями, які ми, люди, навіть уявити не можемо.
За матеріалами: WIRED