Искусственный интеллект упрощает исследование какой – то темы-он предоставляет полный ответ на заданный вопрос. Но новое исследование показывает, что информация, полученная с такой легкостью, с меньшей вероятностью закрепится.
LLM (большая языковая модель) — это форма генеративного искусственного интеллекта, который общается подобно людям, используя обычный язык. LLM включает в себя почти все известные вам искусственные интеллекты, включая ChatGPT и Microsoft Copilot.
Но в серии экспериментов с участием более 4500 участников в школе Уортона Пенсильванского университета люди, которые использовали LLM для исследования повседневных тем, впоследствии продемонстрировали более слабое понимание этих тем и выдали менее оригинальные идеи, чем люди, которые искали те же темы с помощью Google.
Полученные результаты вызывают беспокойство по поводу того, как люди ищут и учатся, говорит профессор маркетинга Wharton Шири Мелумад, первый автор исследования. «Это похоже на эффект Google на стероидах», — говорит она, ссылаясь на более ранние исследования, предполагающие, что люди, как правило, запоминают меньше, когда информацию легко найти. По ее словам, с ИИ мы еще дальше отходим от активного обучения».
В ходе четырех экспериментов Мелумад и соавтор исследования Джин Юн Хо случайным образом распределили участников, которым предстояло использовать либо поиск Google, либо ИИ для исследования обычной темы, а затем написать рекомендации на основе того, что они узнали.
В первом эксперименте более 1100 участников попросили использовать Google или ChatGPT, чтобы узнать, как посадить огород. По сравнению с пользователями ChatGPT пользователи Google тратили больше времени на поиск, сообщали о больших усилиях и писали более длинные и подробные ответы. Анализ их языка показал, что их советы также содержали больше уникальных фраз и ссылок на факты.
Чтобы исключить возможность того, что различия в самой информации, а не только в способе ее представления, повлияли на результаты, во втором эксперименте почти 2000 участников получили одни и те же семь советы по садоводству либо в виде единого резюме в стиле искусственного интеллекта, либо разбиты на шесть макетных веб-страниц, как обычно отображаются Результаты поиска Google. Пользователи Google снова работали более активно, больше запоминали и писали более вдумчивые и оригинальные советы, чем пользователи LLM.
Дэниел Оппенгеймер, профессор психологии и наук о принятии решений в Университете Карнеги-Меллона, говорит, что исследование перекликается с тем, что он видит в аналогичных исследованиях, которые он проводит в своей лаборатории: студенты, использующие инструменты искусственного интеллекта для выполнения задач, как правило, лучше справляются с домашними заданиями, но хуже с тестами. «Они получают правильные ответы, но не учатся», — говорит он.
Оппенгеймер говорит, что результаты показывают, что простое убеждение, что информация поступила от ИИ, заставляет людей меньше учиться. «Они как бы думают, что система умнее их, поэтому перестают пытаться», — говорит он. «Это мотивационный вопрос, а не только когнитивный».
Однако Оппенгеймер предостерегает от полного отказа от искусственного интеллекта. Он видел, как GPT помогает студентам учиться, когда они используют его правильно-скажем, критикуя проект, подготовленный ИИ, или задавая наводящие вопросы. «ИИ не должен делать нас пассивными. Но прямо сейчас люди используют его именно так», — говорит он.
Мелумад также обеспокоен будущим влиянием ИИ, особенно в образовательных учреждениях или профессиях, которые зависят от критического мышления. Но, как и Оппенгеймер, она также видит возможности, которые предлагает ИИ.