Воскресенье, 17 ноября, 2024

Apple обнаружила критические недостатки в логическом рассуждении искусственного интлекта

Исследовательская группа Apple по искусственному интеллекту выявила значительные недостатки в способности больших языковых моделей (она искусственного интеллекта) аргументировать. Исследование, опубликованное на arXiv, описывает оценку ряда ведущих языковых моделей, в том числе OpenAI, Meta и других известных разработчиков искусственных интеллектов, чтобы определить, насколько хорошо эти модели могут справляться с задачами математических соображений. Выводы показывают, что даже незначительные изменения в формулировке вопросов могут привести к серьезным различиям в производительности модели, что может подорвать ее надежность в сценариях, требующих логической согласованности.

Напомним, Apple выпустила iPhone 16, ключевой функцией которого должен стать искусственный интеллект Apple Intelligence. Этот интеллект еще недоступен пользователям, компания только начала ограниченное развертывание.

Apple обращает внимание на постоянную проблему языковых моделей: их работа на основе совпадения шаблонов, а не подлинного логического соображения. В нескольких тестах исследователи продемонстрировали, что добавление нерелевантной информации к вопросу — деталям, которые не должны влиять на математический результат, может привести к существенным отличиям ответов искусственного интеллекта.

Один из примеров, приведенный в статье, касается простой математической задачи: сколько киви человек собрал в течение нескольких дней. Когда были введены нерелевантные детали размера некоторых киви, такие модели, как o1 от OpenAI и Llama от Meta, неправильно рассчитала окончательную сумму.

«Мы не нашли доказательств формального размышления в языковых моделях. Их поведение лучше объяснить сложным шаблоном сопоставления — действительно настолько хрупким, что изменение имен может изменить результаты примерно на 10%.

Эта хрупкость результатов побудила исследователей к выводу, что искусственные интеллекты не используют реальную логику для решения проблем, а полагаются на сложное распознавание образов, полученных во время обучения.

Они обнаружили, что простое изменение имен может изменить результаты, потенциально тревожный знак для будущего приложений искусственного интеллекта, требующих последовательных и точных соображений в контексте реального мира.

Все проверенные модели от меньших версий с открытым исходным кодом, таких как Llama, до проприетарных моделей, таких как GPT-4o OpenAI, показали значительное снижение производительности, когда столкнулись с, казалось бы, несущественными вариациями входных данных.

Apple предполагает, что искусственному интеллекту может потребоваться сочетание нейронных сетей с традиционным символическим соображением, которое называется нейросимволическим искусственным интеллектом, чтобы получить более точные возможности принятия решений и решения проблем.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися