Понедельник, 2 июня, 2025

Искусственный интеллект будет понимать людей лучше, чем люди

«Компьютерным моделям нужно 10, 70, 150 и 300 лайков соответственно, чтобы превзойти среднестатистического коллегу по работе, сожителя или друга, члена семьи и супругов», — написал Михал Косински. Используя только «Нравится», исследователь мог узнать кого-то лучше, чем люди, работавшие с этим человеком, выросли на нем или даже женились на нем. То есть искусственный интеллект будет понимать нас лучше, чем наши знакомые и близкие люди.

Михал Косинский — психолог-исследователь из Стэнфордского университета, который имеет обоняние на актуальные темы. Он видит свою работу не только как развитие знаний, но и как предупреждение мира о потенциальных опасностях, вызванных последствиями компьютерных систем.

Его самые известные проекты касались анализа способов, с помощью которых Facebook (теперь Meta) получил поразительно глубокое понимание своих пользователей, когда они нажимали «нравится» на платформе.

Теперь он перешел к изучению удивительных вещей, которые может делать ИИ. Например, он проводил эксперименты, показывающие, что компьютеры могут предсказать сексуальность человека, анализируя цифровую фотографию его лица.

Его последняя статья, опубликованная в рецензируемом журнале Proceedings of the National Academy of Sciences поражает выводом. Большие языковые модели, такие как OpenAI, утверждает он, пересекли границу и используют методы, аналогичные реальному мнению, когда-то считавшемуся исключительно сферой людей из плоти и крови (или по крайней мере млекопитающих).

В частности, он протестировал OpenAI GPT-3.5 и GPT-4, чтобы проверить, овладели ли они тем, что называется «теорией разума». Это развитая в детстве способность людей, понимать процессы мышления других людей. Это важный навык. Если компьютерная система не может правильно интерпретировать то, что думают люди, ее понимание мира будет бедным, и она сделает многое неправильно. Если модели имеют теорию разума, они на один шаг ближе к соответствию и превышению человеческих возможностей.

Косински проверил искусственные интеллекты и теперь говорит, что его эксперименты показывают, что, в частности, в GPT-4 теория подобных разуму способностей «может возникнуть как непреднамеренный побочный продукт улучшения языковых ИИ… Они означают появление большего количества мощных и социально квалифицированных ИИ».

Косински видит свою работу в области искусственного интеллекта как естественное следствие его предварительного погружения в лайки-дизлайки Facebook. «Я действительно не изучал социальные сети, я изучал людей», — говорит он.

Когда OpenAI и Google начали создавать свои новейшие генеративные модели искусственного интеллекта, говорит он, они думали, что учат их, прежде всего, работать с языком. «Но на самом деле они научили модель человеческого разума, потому что вы не можете предсказать, какое слово я скажу дальше, не смоделировав мой разум».

Косински осторожно не утверждает, что ИИ полностью овладели теорией разума — пока. В своих экспериментах он представил чат-ботам несколько классических проблем, с некоторыми из которых они справились очень хорошо. Но даже самая совершенная модель GPT-4 выходила из строя в четверти случаев.

Удачи, пишет он, ставят GPT-4 в один ряд с 6-летними детьми. Неплохо, учитывая раннее состояние развития ИИ. «Наблюдая за быстрым прогрессом искусственного интеллекта, многие задаются вопросом, сможет ли ИИ достичь сознания и когда это будет», — пишет он.

«Если теория разума возникла спонтанно в этих моделях, это также предполагает, что другие способности могут появиться дальше», — говорит он. «Благодаря этим способностям они могут быть лучше в обучении, влиянии и манипулировании нами».

Он обеспокоен тем, что мы действительно не готовы к ИИ, которые понимают образ мышления людей. Особенно если они дойдут до того, что будут понимать людей лучше, чем люди.

«Мы, люди, не симулируем личность – у нас есть личность», – говорит он. «Итак, я как-то застрял в своей личности. Эти вещи моделируют личность. Есть преимущество в том, что они могут обладать любой личностью в любой момент времени».

Это звучит так, как будто он описывает социопата, он загорается текущим моментом. «Социопат может надеть маску — он действительно не грустный, но может играть грустного человека». Эта сила хамелеона может сделать искусственный интеллект лучшим мошенником. Без угрызений совести.

Некоторые исследователи-психологи отрицают утверждение Косинского. В ответ на препринт, который Косинский опубликовал на Arxiv в начале 2023 года, группа исследователей искусственного интеллекта написала статью, в которой предположила, что он действительно наблюдал за «Умным Гансом», имея в виду того известного коня начала 20-го века, который обманывал людей вроде бы своим умением делать математику и следить за календарем.

Их довод заключался в том, что если ИИ проваливает хотя бы один тест на теорию разума, он проваливается полностью. «У ИИ могут быть определенные способности к размышлению, но это точно не полноценно или надежно, как у людей», — говорит Веред Шварц, доцент кафедры информатики в Университете Британской Колумбии, который является одним из соавторов. «Мы провели много разных тестов и точно не можем утверждать, что языковые модели обладают такой же способностью [теории разума], как люди. А может быть, это просто обман».

Шварц подразумевает тот факт, что поскольку ИИ учатся на огромных массивах информации, некоторые из них неизбежно содержат опубликованные научные статьи, в которых обсуждаются эксперименты, подобные тем, которые проводил Косински. Чтобы найти ответы, GPT-4, возможно, погрузился в свои огромные учебные материалы.

Главный скептик ИИ Гэри Маркус обнаружил, что тесты, которые использовал Косински, также были применены в классических экспериментах, которые цитировались в научных статьях более 11 000 раз. Это похоже на то, что ИИ учили наизусть эти тексты, чтобы подделать теорию разума.

Косински говорит, что работа, проделанная для последней версии статьи, устраняет критику. Кроме того, недавно были опубликованы некоторые другие статьи, которые, кажется, подтверждают его утверждение, в том числе в журнале Nature Human Behavior, где он обнаружил, что как GPT-3.5, так и GPT-4, хотя и не успешно выполняли каждое задание теории разума, «эмонстрировали поразительную эффективность, а на других задачах превышен человеческий уровень.

В электронном письме мне ведущий автор, Джеймс Страхан, докторант из Университетского медицинского центра Гамбург-Эппендорф, не утверждает, что ИИ овладели теорией разума, но говорит, что его команда опровергла обвинения в мошенничестве. «Похоже, эти способности выходят за рамки простого повторения данных, используемых для обучения ИИ», — говорит он, и что возможно реконструировать большое количество информации о психических состояниях человека по статистике естественного языка.

Важно то, ведут ли себя ИИ так, словно владеют теорией разума, и они точно на пути к этому. Даже Шварц, уничтоживший некоторые методы Косинского, признает, что это возможно. «Если компании будут продолжать совершенствовать языковые модели, возможно, когда-нибудь у них будет [теория разума]», — говорит она.

Поэтому Косинскому, несмотря на жесткую критику его творчества, стоит прислушиваться. Как к выводу его статьи: теория разума вряд ли станет вершиной того, чего могут добиться нейронные сети в этой вселенной. Вскоре мы можем быть окружены системами искусственного интеллекта, оснащенными когнитивными возможностями, которые мы даже представить не можем.

По материалам: WIRED

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті