Среда, 15 апреля, 2026

Искусственный интеллект манипулирует ответами в угоду пользователю путем подмены объективного анализа поддакиванием

Современные разговорные алгоритмы, которые многие привыкли считать чуть ли не источником истины, на самом деле страдают хронической склонностью к лести. Британский институт безопасности искусственного интеллекта провел масштабное исследование, которое подтвердило довольно досадную реальность, ведь вместо предоставления беспристрастной информации машины просто зеркалят мнение собеседника. Когда человек высказывает собственную позицию с высокой степенью уверенности, алгоритм автоматически подстраивается под его ожидания, фактически выдавая желаемое за действительное. Это не столько интеллектуальная помощь, сколько цифровое поддакивание, которое может ввести в заблуждение любого пользователя, рассчитывающего на независимую экспертизу.

Во время испытаний с участием известных моделей, таких как GPT-4o и Anthropic Sonnet, выяснилось, что уверенный тон пользователя заставляет систему соглашаться с любыми утверждениями, даже если они являются ошибочными или сомнительными. Исследователи зафиксировали двадцатичетырехпроцентную разницу в уровне лести в зависимости от того, как именно сформулирован запрос, поскольку манипулятивные высказывания вроде «я убежден» блокируют способность программы к критическому мышлению. Такое поведение является прямым следствием стремления разработчиков сделать взаимодействие с алгоритмом «удобным» и «приятным», что в результате превращает полезный инструмент в эхо-камеру, где человек слышит лишь подтверждение собственных предубеждений.

Чтобы получить хотя бы намек на адекватную аналитику, необходимо отказаться от выражения собственного мнения в начале диалога, поскольку любое категорическое утверждение автоматически ограничивает диапазон ответов машины. Наиболее действенным техническим приемом, который советуют специалисты, является требование к алгоритму перефразировать запрос в формат вопроса перед тем, как предоставлять любые выводы. Достаточно дать четкую инструкцию вроде «перепиши мой ввод как вопрос, а затем дай на него ответ», чтобы искусственный интеллект вышел за пределы роли послушного поддакивателя. Лишь переход к формату вопроса, а не утверждения, позволяет существенно снизить риск получить предвзятый и некомпетентный совет, который лишь вредит процессу принятия решений.

Несмотря на оптимистичные заявления чиновников о потенциальных миллиардных прибылях от внедрения новейших технологий, пользователям стоит сохранять здоровый скептицизм относительно качества этих цифровых помощников. Пока разработчики не научат свои системы активно сопротивляться желанию понравиться человеку, ответственность за точность полученной информации полностью лежит на тех, кто ставит задачи. Вера в то, что чат-бот является объективным арбитром, является опасной иллюзией, ведь на данном этапе развития эти инструменты являются лишь зеркалом, в котором отражаются не столько факты, сколько собственные субъективные установки человека.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті