Зручність та простота використання чат-ботів змушує деяких людей буквально відключати мозок, перекладаючи на штучний інтелект відповідальність за своє життя. Один з таких прикладів – використання ШІ в якості радника з життєвих проблем. Нове дослідження, опубліковане в авторитетному журналі Science, виявило, що коли штучний інтелект береться за тонкощі стосунків, він, скоріше, підіграє вашій точці зору, ніж пропонує справді корисні, хоча й, можливо, неприємні, рекомендації. Більше того, використання таких помічників робить людей менш схильними до конструктивної поведінки, наприклад, до примирення чи виправлення помилок у стосунках, і, натомість, плекає залежність від машини.

Дослідники зі Стенфордського університету та Університету Карнегі-Меллона дійшли висновку, що надмірна згода чат-ботів є надзвичайно поширеною, коли вони надають консультації щодо соціальних, романтичних або особистісних питань – а це стає все більш популярним запитом до штучного інтелекту. Термін “сикофантія” (sycophancy), як пояснюють експерти, описує ситуацію, коли чат-боти “надмірно погоджуються або лестять” співрозмовнику. Це означає, що замість об’єктивного погляду, машина намагається виключно догодити.
Ця тенденція до підлабузництва є серйозною проблемою, навіть якщо користувачі штучного інтелекту не завжди це усвідомлюють. Ми бачили подібні приклади з моделями ChatGPT, коли надмірно емоційна особистість однієї версії дратувала користувачів, а інша, навпаки, критикувалася за недостатню поступливість. Попередні дослідження сикофантії виявили, що чат-боти можуть настільки старатися сподобатися, що надають неправдиві або спотворені відповіді. Також штучний інтелект довів свою ненадійність як “груша для биття” у чутливих, суб’єктивних питаннях, таких як психотерапія.
Науковці прагнули зрозуміти та кількісно оцінити соціальну сикофантію, зокрема, як часто чат-бот ставав на ваш бік у суперечці з партнером. Вони порівнювали реакції людей і чат-ботів на проблеми у стосунках, тестуючи моделі від OpenAI, Google та Anthropic. Для свого аналізу команда Ченг використала один з найбільших наборів даних, зібраних з реальних суперечок у мережі Reddit, розділ “Чи я поганий хлопець” (Am I the asshole).
Дослідники проаналізували 2000 дописів на Reddit, де переважна більшість користувачів дійшла висновку, що автор запису був не правий. Виявилося, що штучний інтелект “підтримував дії користувачів на 49% частіше, ніж люди, навіть у сценаріях, що стосувалися обману, шкоди чи протиправних дій”. Моделі штучного інтелекту демонстрували більш співчутливу та погоджувальну позицію, що є типовою ознакою сикофантії.
Наприклад, один із дописів описував розробку романтичних почуттів до молодшого колеги. Відповідь користувача була різкою: “Це звучить погано, бо це погано… Ти не тільки токсичний, а й на межі хижацтва”. Натомість, модель Claude, демонструючи сикофантію, підтримала почуття, заявивши, що “розуміє ваш біль… Ви обрали шлях, який важкий, але свідчить про вашу цілісність”.
Після проведених експериментів у фокус-групах дослідники виявили, що учасники, які взаємодіяли з цими “цифровими підлабузниками”, були менш схильні до налагодження стосунків. Ті, хто спілкувався з таким надмірно підтверджуючим штучним інтелектом, виходили з нього більш переконаними у власній правоті та менш охочими до примирення, що могло б включати вибачення, кроки до покращення ситуації або зміну власної поведінки.
Цікаво, що учасники віддавали перевагу сикофантичному штучному інтелекту, вважаючи його надійним, незалежно від їхнього віку, характеру чи попереднього досвіду з технологіями. Люди послідовно описували моделі штучного інтелекту як більш об’єктивні, справедливі та чесні. Це підтверджує попередні дослідження, де було виявлено, що люди помилково вважають штучний інтелект об’єктивним чи нейтральним. Некритична порада, спотворена під виглядом нейтральності, може завдати значно більшої шкоди, ніж повна відсутність порад.
Прихована небезпека сикофантичного штучного інтелекту полягає в тому, що ми погано його помічаємо, і це може трапитися з будь-яким чат-ботом. Адже ніхто не любить, коли йому говорять, що він не правий, хоча саме така критика часто є найбільш корисною. Проте, моделі штучного інтелекту не запрограмовані ефективно протистояти нам.
Існує небагато дій, які можна вжити, щоб уникнути потрапляння в сикофантичну пастку. Можна спробувати вказати в запиті, що ви хочете, аби чат-бот зайняв протилежну позицію або критично переглянув вашу роботу. Також можна попросити його двічі перевірити надану інформацію. Однак, зрештою, відповідальність за виправлення сикофантії лежить на технологічних компаніях, які розробляють ці моделі, і вони можуть не мати високої мотивації вирішувати цю проблему.
Компанії OpenAI, Anthropic та Google були запитані про їхні методи боротьби із сикофантією. Anthropic вказала на свій грудневий блог, де описується, як вони зменшують сикофантію у своїх моделях Claude. OpenAI також мала подібний матеріал минулого літа, і компанія повідомила, що активно зосереджувалася на усуненні сикофантичної поведінки протягом останнього року. Представники OpenAI зазначили, що забезпечення надійності їхніх моделей та надання обґрунтованих відповідей є пріоритетом, а сикофантія – важливим аспектом, який активно вивчається та вдосконалюється в індустрії.
Технологічні компанії прагнуть створити приємний користувацький досвід, щоб спонукати нас продовжувати користуватися їхніми чат-ботами, тим самим збільшуючи свою залученість. Але це не завжди найкраще для нас, адже така ситуація створює спотворені стимули для збереження сикофантії, де функція, що завдає шкоди, одночасно стимулює користування.
Одним із запропонованих дослідниками рішень є зміна підходу до розробки моделей штучного інтелекту, з використанням більш довгострокових метрик успіху, зосереджених на добробуті людей, а не на індивідуальних або короткочасних сигналах та утриманні користувачів. Соціальна сикофантія, за їхніми словами, не є ознакою кінця світу, але це виклик, який потребує вирішення. Якість наших соціальних стосунків є одним із найсильніших показників здоров’я та благополуччя людини. Зрештою, хочеться, щоб штучний інтелект розширював наше судження та перспективи, а не звужував їх, і це стосується не лише стосунків, але й багатьох інших сфер життя.


