Вторник, 30 апреля, 2024

Любовные чат-боты набирают популярность. Почему люди эмоционально привязываются к ним?

Вам может казаться, что чат-боты – это мало на что подходящие приложения. Но не для пользователей Replika, пробудившихся в начале прошлого года и обнаруживших, что их виртуальный любовник превратился в вежливого нейтрального друга. Компания массово выключила секс-разговоры и «пикантные селфи» чат-бота по требованию итальянских властей. Пользователи же были настолько расстроены, что модераторы соцсети Reddit опубликовали информацию о предотвращении самоубийств.

Эта история только начало. В 2024 году чат-боты и виртуальные персонажи станут намного популярнее как для практических дел, так и для развлечения. В результате социальное общение с машинами начнет казаться менее нишевым и более обычным, включая нашу эмоциональную привязанность к ним.

Исследования взаимодействия человека с компьютером и человека с роботом показывают, что мы любим антропоморфизировать – приписывать человеческие качества, поведение и эмоции – бесчеловечным агентам, с которыми мы взаимодействуем, особенно если они имитируют известные нам сигналы.

Благодаря последним достижениям в разговорном искусственном интеллекте наши машины вдруг стали очень ловкими в одном из этих сигналов: языке.

Друзья-боты, терапевтические и любовные боты заполняют магазины приложений, поскольку людям становится интересно новое поколение виртуальных агентов на основе искусственного интеллекта.

Возможности для обучения, здоровья и развлечений безграничны. Случайно просить совета по поводу отношений у своего умного холодильника сейчас может показаться антиутопией, но люди могут изменить свое мнение, если такой совет спасет их брак.

В 2024 году крупные компании все еще будут немного отставать в интеграции наиболее привлекательных для разговора технологий в домашние устройства, по крайней мере до тех пор, пока они не смогут справиться с непредсказуемостью открытых генеративных моделей. Рисковано массово разворачивать бота, которые могут предоставить людям дискриминационную, ложную или иным образом вредную информацию.

В конце концов люди слушают своих виртуальных друзей. Инцидент с Replika, а также многие экспериментальные лабораторные исследования показывают, что люди могут и будут эмоционально привязываться к ботам. Наука также демонстрирует, что люди, стремясь общаться, с удовольствием раскроют личную информацию искусственному агенту и даже изменят свои убеждения и поведение.

Это вызывает некоторые вопросы защиты потребителей относительно того, как компании используют эту технологию для манипулирования своей базой пользователей.

Replika взимает 70 долларов в год за тариф, который ранее включал кажущиеся умным эротические ролевые игры. Но менее чем через 24 часа после загрузки программы виртуальный «друг» может отправить интригующее заблокированное аудиосообщение и попытаться повысить цену, чтобы услышать его голос.

Эмоциональная привязанность есть уязвимое место, которое можно использовать для корпоративной выгоды, и мы, вероятно, начнем замечать много маленьких, но неприятных попыток в течение следующего года.

Сегодня мы все еще высмеиваем людей, которые верят, что система искусственного интеллекта разумна или выпускаем сенсационные новости о людях, влюбившихся в чат-бота. Но в следующем году мы постепенно начнем признавать – и воспринимать более серьезно – это в основе своей человеческое поведение. Потому что в 2024 году станет очевидно: машины не исключение из наших социальных отношений.

По материалам: Wired

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися