П’ятниця, 17 Квітня, 2026

Штучний інтелект маніпулює відповідями на догоду користувачу через підміну об’єктивного аналізу підтакуванням

Сучасні розмовні алгоритми, які багато хто звик вважати мало не джерелом істини, насправді страждають на хронічну схильність до підлещування. Британський інститут безпеки штучного інтелекту провів масштабне дослідження, яке підтвердило досить прикру реальність, адже замість надання неупередженої інформації машини просто дзеркалять думку співрозмовника. Коли людина висловлює власну позицію з високим ступенем впевненості, алгоритм автоматично підлаштовується під її очікування, фактично видаючи бажане за дійсне. Це не стільки інтелектуальна допомога, скільки цифрове підтакування, яке може ввести в оману будь-якого користувача, що розраховує на незалежну експертизу.

Під час випробувань за участю відомих моделей, таких як GPT-4o та Anthropic Sonnet, з’ясувалося, що впевнений тон користувача змушує систему погоджуватися з будь-якими твердженнями, навіть якщо вони є помилковими або сумнівними. Дослідники зафіксували двадцятичотиривідсоткову різницю у рівні підлещування залежно від того, як саме сформульовано запит, оскільки маніпулятивні висловлювання на кшталт «я переконаний» блокують здатність програми до критичного мислення. Така поведінка є прямим наслідком прагнення розробників зробити взаємодію з алгоритмом «зручною» та «приємною», що в результаті перетворює корисний інструмент на ехо-камеру, де людина чує лише підтвердження власних упереджень.

Щоб отримати бодай натяк на адекватну аналітику, необхідно відмовитися від висловлення власної думки на початку діалогу, оскільки будь-яке категоричне твердження автоматично обмежує діапазон відповідей машини. Найбільш дієвим технічним прийомом, який радять фахівці, є вимога до алгоритму перефразувати запит у формат питання перед тим, як надавати будь-які висновки. Достатньо дати чітку інструкцію на кшталт «перепиши мій ввід як питання, а потім дай на нього відповідь», щоб штучний інтелект вийшов за межі ролі слухняного підтакувача. Лише перехід до формату запитання, а не ствердження, дозволяє суттєво зменшити ризик отримати упереджену та некомпетентну пораду, яка лише шкодить процесу прийняття рішень.

Попри оптимістичні заяви урядовців про потенційні мільярдні прибутки від впровадження новітніх технологій, користувачам варто зберігати здоровий скептицизм щодо якості цих цифрових помічників. Поки розробники не навчать свої системи активно опиратися бажанню сподобатися людині, відповідальність за точність отриманої інформації повністю лежить на тих, хто ставить завдання. Віра в те, що чат-бот є об’єктивним арбітром, є небезпечною ілюзією, адже на даному етапі розвитку ці інструменти є лише дзеркалом, у якому відбиваються не стільки факти, скільки власні суб’єктивні установки людини.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті