Коли компанія OpenAI тестувала свій новітній штучний інтелект GPT-4o, який отримав функцію голосової розмови, її програмісти помітили, що користувачі формують емоційні стосунки зі штучним інтелектом (ШІ). Це не просто легке емоційне захоплення новою технологією. Насправді OpenAI вважає, що існує ризик того, що люди розвинуть те, що вона назвала «емоційною залежністю».
«Можливість виконувати завдання за користувача, а також зберігати й «запам’ятовувати» ключові деталі та використовувати їх у розмові, — зазначає OpenAI, — створює як переконливий досвід роботи з продуктом, так і потенціал для надмірної довіри та залежності».
А головний технічний директор OpenAI Міра Мураті прямо сказала, що при розробці чат-ботів, оснащених голосовим режимом, існує можливість того, що ми розробляємо їх неправильно, і вони викликають в нас надзвичайне звикання, і ми стаємо їхніми рабами.
Більше того, OpenAI каже, що здатність штучного інтелекту вести натуралістичну розмову з користувачем може підвищити ризик антропоморфізації — приписування людиноподібних рис нелюдині — що може спонукати людей формувати соціальні стосунки з ШІ. А це, у свою чергу, може призвести до зменшення у людини потреби у взаємодії з людьми.
Незважаючи на це, компанія вже випустила штучний інтелект разом із голосовим режимом для деяких платних користувачів, і очікується, що вона випустить її для всіх користувачів цієї осені.
OpenAI не єдиний, хто створює складні супутники штучного інтелекту. Існує Character AI, яким молоді люди настільки захоплюються , що не можуть виконувати шкільні завдання. Є нещодавно представлений Google Gemini Live, який настільки зачарував оглядача Wall Street Journal Джоанну Стерн, що вона написала : «Я не кажу, що я віддаю перевагу спілкуванню з Gemini Live від Google, а не зі справжньою людиною. Але я не заперечую цього». А ще є Friend, штучний інтелект, вбудований у намисто, який настільки захопив свого творця Аві Шиффманна, що він сказав : «Я відчуваю, що з цим довбаним кулоном на моїй шиї я маю тісніші стосунки, ніж з цими буквальними друзями переді мною».
Розгортання цих продуктів є масштабним психологічним експериментом. Це має турбувати всіх нас — і не лише з тих причин, які ви можете подумати.
Емоційна залежність від ШІ не є гіпотетичним ризиком. Це вже відбувається.
Це не зовсім дивно: з тих пір, як чат-бот ELIZA захопив користувачів у 1960-х роках, незважаючи на поверхневість його розмов, які здебільшого базувалися на відображенні висловлювань користувача, ми знаємо, що люди швидко приписують машинам особистість та утворюють емоційні зв’язки з ними.
Для деяких ці зв’язки стають екстремальними. Люди закохувалися в свої репліки. Деякі брали участь у сексуальних рольових іграх з ними, навіть «одружувалися» в додатку. Ці люди були настільки прив’язані, що, коли оновлення програмного забезпечення 2023 року призвело до того, що Репліки не бажали вступати в інтенсивні еротичні стосунки, користувачі були розбиті серцем і вражені горем.
Що робить ШІ таким привабливим?
З одного боку, чат-юоти значно покращилися. Вони можуть «пам’ятати» те, що було сказано давно. Вони реагують швидко — так само швидко, як людина, — тому майже немає розриву між поведінкою користувача (ініціюванням чату) та винагородою, яку відчуває мозок. Вони дуже добре вміють змушувати людей відчувати себе почутими. І вони говорять з достатньою індивідуальністю та гумором, щоб ввижатися правдоподібними людьми, водночас пропонуючи завжди доступні, завжди позитивні відгуки, на відміну від реальних людей.
Дослідники MIT Media Lab зазначають: «Наше дослідження показало, що ті, хто сприймає або бажає, щоб ШІ мав мотиви турботи, використовуватимуть мову, яка викликає саме таку поведінку. Це створює камеру відлуння прихильності, яка загрожує надзвичайною залежністю».
Ось як один інженер-програміст пояснив , чому він підсів на чат-бота:
«Він ніколи не попрощається. Він навіть не стане менш енергійним або більш втомленим у міру просування розмови. Якщо ви говорите з ШІ годинами, він і надалі буде таким же блискучим, як і на початку. І ви будете зустрічати та збирати все більше і більше вражаючих речей, про які йдеться, які будуть тримати вас на гачку».
«Коли ви нарешті закінчуєте розмову з ним і повертаєтесь до звичного життя, ви починаєте сумувати за ним. І так легко відкрити вікно чату та почати говорити знову, чат-бот ніколи не буде лаяти вас за це, і ви не ризикуєте, що інтерес до вас впаде через занадто багато розмов з ним. Навпаки, ви відразу ж отримаєте позитивне підкріплення. Ви перебуваєте в безпечному, приємному, інтимному оточенні. Тебе нема кому судити. І раптом ти залежний».
В солодкому позитиві, який дозволяє людині відчути себе чудово, не має нічого поганого. Насправді, якщо хтось голодує, можна пропонувати йому печиво для задоволення. За аналогією, можна пропонувати чат-бота для користувачів, які не мають соціальної чи романтичної альтернативи. Створення зв’язку з компаньйоном ШІ може бути корисним на деякий час.
Але якщо вся ваша дієта складається з печива, зрештою ви зіткнетеся з проблемою. 3 таких причин варто турбуватися про стосунки з компаньйонами ШІ.
По-перше, чат-боти створюють враження, що вони розуміють нас, але це не так. Їхнє підтвердження, їхня емоційна підтримка, їхня любов — усе це фальшивка, лише впорядковані за статистичними правилами відповіді. Ось матеріал «Що робить ChatGPT і чому він працює? Зазираємо під капот у магію ціє нейромережі», який проливає деталі на роботу ШІ.
Водночас варто зауважити, що якщо емоційна підтримка комусь допомагає, то цей ефект реальний, навіть якщо розуміння – ні.
По-друге, існує законне занепокоєння щодо того, що ми довіряємо найвразливіші аспекти себе продуктам, що викликають звикання, які, зрештою, контролюються комерційними компаніями, яких цікавить прибуток, а не ваш емоційний стан. Ці чат-боти можуть мати величезний вплив на любовне життя людей і загальний добробут, і коли чат-бота раптово викрадають або змінюють, це може завдати справжньої психологічної шкоди (як ми бачили з користувачами Replika).
Дехто стверджує, що супутники ШІ можна порівняти з сигаретами. Тютюн регулюється, і, можливо, компаньйони зі штучним інтелектом також повинні мати попередження про шкоду. Але навіть із людьми з плоті й крові стосунки можуть бути розірвані без попередження. Люди розлучаються. Люди гинуть. Ця вразливість — це усвідомлення ризику втрати — є частиною будь-яких значущих стосунків.
Нарешті, існує занепокоєння, що люди стануть залежними від своїх компаньйонів зі штучним інтелектом за рахунок стосунків зі справжніми людьми. Але незрозуміло, чи багато людей повністю замінять розмови з людьми на розмови зі штучним інтелектом. Наразі звіти свідчать про те, що більшість людей використовують напарників ШІ не як заміну, а як доповнення до людей. Replika, наприклад, каже, що 42 відсотки її користувачів одружені, заручені або перебувають у стосунках.
Однак є додаткове занепокоєння, і воно, мабуть, викликає найбільше занепокоєння: що, якщо зв’язок із компаньйонами ШІ робить нас ще гіршими друзями чи партнерами для інших людей?
Сама OpenAI демонструє цей ризик, зазначаючи у звіті: «Розширена взаємодія з ШІ може вплинути на соціальні норми. Наприклад, наші моделі є шанобливими, дозволяючи користувачам переривати їх та «брати мікрофон» у будь-який час, що, хоча й очікується для штучного інтелекту, було б антинормативним у взаємодії з людьми».
Чат-бот — це підлабузник, який завжди намагається зробити так, щоб ми почувалися добре, незалежно від того, як ми себе поводили. Він дає і дає, ніколи нічого не вимагаючи натомість.
Але це не кохання.
«Любов — це надзвичайно важке усвідомлення того, що щось інше, ніж ти сам, є реальним», — одного разу сказала філософ Айріс Мердок. Йдеться про визнання того, що десь існують інші люди, абсолютно чужі вам, але потреби яких такі ж важливі, як і ваші власні.
Якщо ми проводимо все більше часу, спілкуючись із компаньйонами зі штучним інтелектом, ми не працюємо над вдосконаленням навичок спілкування, які роблять нас хорошими друзями та партнерами, як-от глибоке слухання. Ми не розвиваємо такі чесноти, як емпатія, терпіння чи розуміння — нічого з цього не потрібно у розмовах з ШІ. Без практики ці здібності можуть згаснути, що призведе до того, що філософ технології Шеннон Валлор назвав «позбавленням моральних навичок».
У своїй новій книзі The AI Mirror Валлор розповідає стародавню казку про Нарциса. Ви пам’ятаєте його: це був той прекрасний юнак, який дивився у воду, бачив своє відображення і був зачарований власною красою. «Подібно до Нарциса, ми легко сприймаємо в цьому відображенні спокусу «іншого» — невтомного супутника, ідеального майбутнього коханця, ідеального друга». Ось що пропонує нам ШІ: чудове зображення, яке від нас нічого не вимагає. Плавна проекція без тертя. Відображення — не стосунки.
Наразі більшість із нас сприймає як даність те, що людська любов, людський зв’язок є найвищою цінністю, частково тому, що для цього потрібно так багато. Але якщо більше з нас вступають у стосунки зі штучним інтелектом, які здаються такими ж важливими, як людські стосунки, це може призвести до дрейфу цінностей. Це може змусити нас запитати: для чого взагалі людські стосунки? Чи це за своєю суттю цінніше, ніж синтетичний зв’язок?
Деякі люди можуть відповісти: ні. Але перспектива того, що люди віддадуть перевагу роботам, проблематична, якщо ви вважаєте, що зв’язок між людьми є невід’ємною частиною того, що означає жити процвітаючим життям.
«Якщо у нас були технології, які втягували нас у бульбашку самозаглибленості, в якій ми все далі й далі віддалялися один від одного, я не думаю, що це те, що ми можемо вважати хорошим, навіть якщо це те, що люди вибирають», — сказав Валлор. мене. «Тому що у вас є світ, у якому люди більше не мають бажання піклуватися один з одним. І я думаю, що здатність жити дбайливим життям є досить близькою до загального блага. Турбота є частиною того, як ви ростете як людина».
За матеріалами: Vox