Штучний інтелект спрощує дослідження якоїсь теми – він надає повну відповідь на задане питання. Але нові дослідження показують, що інформація, отримана з такою легкістю, з меншою ймовірністю закріпиться.
LLM (велика мовна модель) – це форма генеративного штучного інтелекту, який спілкується подібно людям, використовуючи звичайну мову. До LLM відносяться майже всі відомі вам штучні інтелекти, включаючи ChatGPT та Microsoft Copilot.
Але в серії експериментів з участю понад 4500 учасників в Школі Уортона Пенсільванського університету люди, які використовували LLM для дослідження повсякденних тем, згодом продемонстрували більш слабке розуміння цих тем і видали менш оригінальні ідеї, ніж люди, які шукали ті ж теми з допомогою Google.
Отримані результати викликають занепокоєння з приводу того, як люди шукають і навчаються, каже професор маркетингу Wharton Ширі Мелумад, перший автор дослідження. “Це схоже на ефект Google на стероїдах”, – каже вона, посилаючись на більш ранні дослідження, що припускають, що люди, як правило, запам’ятовують менше, коли інформацію легко знайти. За її словами, з ШІ ми ще далі відходимо від активного навчання”.
В ході чотирьох експериментів Мелумад і співавтор дослідження Джин Юн Хо випадковим чином розподілили учасників, яким належало використовувати або пошук Google, або ШІ для дослідження звичайної теми, а потім написати рекомендації на основі того, що вони дізналися.
У першому експерименті понад 1100 учасників попросили скористатися Google або ChatGPT, щоб дізнатися, як посадити город. Порівняно з користувачами ChatGPT, користувачі Google витрачали більше часу на пошук, повідомляли про великі зусилля і писали більш довгі і докладні відповіді. Аналіз їхньої мови показав, що їх поради також містили більше унікальних фраз і посилань на факти.
Щоб виключити можливість того, що відмінності в самій інформації, а не тільки в способі її подання, вплинули на результати, у другому експерименті майже 2000 учасників отримали одні і ті ж сім поради з садівництва або у вигляді єдиного резюме в стилі штучного інтелекту, або розбиті на шість макетних веб-сторінок, як зазвичай відображаються результати пошуку Google. Користувачі Google знову працювали більш активно, більше запам’ятовували і писали більш вдумливі й оригінальні поради, ніж користувачі LLM.
Деніел Оппенгеймер, професор психології і наук про прийняття рішень в Університеті Карнегі-Меллон, каже, що дослідження перегукується з тим, що він бачить в аналогічних дослідженнях, які він проводить у своїй лабораторії: студенти, використовують інструменти штучного інтелекту для виконання завдань, як правило, краще справляються з домашніми завданнями, але гірше з тестами. “Вони одержують правильні відповіді, але вони не вчаться”, – каже він.
Оппенгеймер каже, що результати показують, що проста віра в те, що інформація надійшла від ШІ, змушує людей менше вчитися. “Вони ніби думають, що система розумніше їх, тому перестають намагатися”, – говорить він. “Це мотиваційне питання, а не тільки когнітивне”.
Однак Оппенгеймер застерігає від повної відмови від штучного інтелекту. Він бачив, як GPT допомагає студентам вчитися, коли вони використовують його правильно — скажімо, критикуючи проект, підготовлений ШІ, або задаючи навідні запитання. “ШІ не повинен робити нас пасивними. Але прямо зараз люди використовують його саме так “, – говорить він.
Мелумад теж стурбована майбутнім впливом ШІ, особливо в освітніх установах або професіях, які залежать від критичного мислення. Але, як і Оппенгеймер, вона також бачить можливості, які пропонує ШІ.