Сегодня столько публикаций о возможностях искусственного интеллекта, что может показаться, будто он действительно способен научиться чему-то новому. Но исследователи Стэнфордского университета говорят, что так называемые «возникающие способности» в моделях искусственного интеллекта — когда модель внезапно демонстрирует способность, для которой она не была разработана — действительно мираж, созданный учеными. Нет никакого гигантского скачка возможностей, утверждают исследователи из Стэнфорда.
Многие исследователи и лидеры отрасли, такие как генеральный директор Google Сундар Пичаи, поддерживали идею о том, что искусственный интеллект, такой как GPT-4 и Google Bard, может внезапно выдать знания, на которые они не были предварительно запрограммированы.
К примеру, в опыте издания 60 Minutes утверждалось, что Бард мог переводить бенгальский язык, даже если его не обучали этому языку. 60 Minutes утверждали, что модели искусственного интеллекта «обучают себя навыкам, которых они не ожидали».
Исследователи Microsoft также утверждали, что языковая модель OpenAI GPT-4 демонстрирует «искры всеобщего искусственного интеллекта», говоря, что этот искусственный интеллект может решать новые и сложные задачи без надобности в каких-либо специальных подсказках.
Такие беспокойства не только вызывают ажиотажный интерес к искусственному интеллекту, на котором компании надеются получить прибыль, но и вызывают опасение потерять контроль над искусственным интеллектом, внезапно превзошедшим человеческий интеллект.Соавторы Рилан Шаффер, Брандо Миранда и Санми Кейо представили объяснение таких неожиданных новых способностей искусственного интеллекта в своей статье, опубликованной на сервере препринтов arXiv.
Авторы пишут, что для конкретной задачи и семейства моделей при анализе их фиксированных результатов можно выбрать метрику, которая позволит сделать вывод о том, что у искусственного интеллекта возникают предварительно не запрограммированные способности. Или можно выбрать другую метрику, которая этого не делает.
Хотя модель GPT-3, обсуждаемая исследователями, является не новейшей итерацией в семействе GPT, они сравнивают свои выводы с предыдущими документами, которые также сосредотачивались на GPT-3 при определении его новых возможностей.
Исследователи обнаружили, что способности искусственного интеллекта появлялись только внезапно, когда люди использовали определенные показатели для измерения задачи.
Выбор человеком нелинейного или разрывного измерения может привести к резким и непредсказуемым изменениям, которые затем ложно сказываются как новые способности, тогда как на самом деле кривая производительности растет плавно.
Это осложняется тем, что у исследователей нет достаточно данных о маленьких моделях — возможно, они действительно способны выполнить якобы новую задачу — и недостаточно данных относительно больших моделей.
Разрывная метрика – это нечто вроде «оценки с множественным выбором», являющейся метрикой, порождающей наибольшее количество предполагаемых новых способностей.
С другой стороны, линейные показатели включают такие вещи, как «Расстояние редактирования маркеров», измеряющее сходство между двумя маркерами и «Оценка Браера», измеряющее точность прогнозируемой вероятности.Исследователи обнаружили, что когда они изменили измерение своих результатов с нелинейной на линейную метрику, прогресс модели казался предполагаемым и плавным, игнорируя предполагаемую возможность возникновения новых способностей.
Среди таких примеров способность GPT-3 выполнять целочисленные арифметические задачи, такие как добавление двух целых пятизначных чисел.
«Я думаю, что у многих людей воображаемая картина состоит в том, что малые модели искусственного интеллекта вообще не могут выполнить эту задачу, но выше некоторого критического масштаба модели искусственного интеллекта сразу и внезапно становятся способными выполнять сложение очень хорошо, — пишут авторы. – Эта ментальная картина вызывает повод для беспокойства. Это свидетельствует о том, что у вас может быть одна модель, которая хорошо работает и заслуживает доверия, но если вы научите следующую модель с большим количеством данных или с большим количеством параметров, следующая модель может непредсказуемо стать токсичной, обманчивой или вредной. Вот некоторые из опасений, заставляющих людей верить, что мы можем неожиданно потерять контроль над искусственным интеллектом».
В то же время, исследователи обнаружили, что огромного скачка возможностей нет. «Когда мы просмотрели показатели, используемые для оценки этих инструментов, мы обнаружили, что они увеличивали свои возможности постепенно и предсказуемым образом», — продолжают авторы.
По материалам: Vice