Вам может казаться, что чат-боты – это мало на что подходящие приложения. Но не для пользователей Replika, пробудившихся в начале прошлого года и обнаруживших, что их виртуальный любовник превратился в вежливого нейтрального друга. Компания массово выключила секс-разговоры и «пикантные селфи» чат-бота по требованию итальянских властей. Пользователи же были настолько расстроены, что модераторы соцсети Reddit опубликовали информацию о предотвращении самоубийств.
Эта история только начало. В 2024 году чат-боты и виртуальные персонажи станут намного популярнее как для практических дел, так и для развлечения. В результате социальное общение с машинами начнет казаться менее нишевым и более обычным, включая нашу эмоциональную привязанность к ним.
Исследования взаимодействия человека с компьютером и человека с роботом показывают, что мы любим антропоморфизировать – приписывать человеческие качества, поведение и эмоции – бесчеловечным агентам, с которыми мы взаимодействуем, особенно если они имитируют известные нам сигналы.
Благодаря последним достижениям в разговорном искусственном интеллекте наши машины вдруг стали очень ловкими в одном из этих сигналов: языке.
Друзья-боты, терапевтические и любовные боты заполняют магазины приложений, поскольку людям становится интересно новое поколение виртуальных агентов на основе искусственного интеллекта.
Возможности для обучения, здоровья и развлечений безграничны. Случайно просить совета по поводу отношений у своего умного холодильника сейчас может показаться антиутопией, но люди могут изменить свое мнение, если такой совет спасет их брак.
В 2024 году крупные компании все еще будут немного отставать в интеграции наиболее привлекательных для разговора технологий в домашние устройства, по крайней мере до тех пор, пока они не смогут справиться с непредсказуемостью открытых генеративных моделей. Рисковано массово разворачивать бота, которые могут предоставить людям дискриминационную, ложную или иным образом вредную информацию.
В конце концов люди слушают своих виртуальных друзей. Инцидент с Replika, а также многие экспериментальные лабораторные исследования показывают, что люди могут и будут эмоционально привязываться к ботам. Наука также демонстрирует, что люди, стремясь общаться, с удовольствием раскроют личную информацию искусственному агенту и даже изменят свои убеждения и поведение.
Это вызывает некоторые вопросы защиты потребителей относительно того, как компании используют эту технологию для манипулирования своей базой пользователей.
Replika взимает 70 долларов в год за тариф, который ранее включал кажущиеся умным эротические ролевые игры. Но менее чем через 24 часа после загрузки программы виртуальный «друг» может отправить интригующее заблокированное аудиосообщение и попытаться повысить цену, чтобы услышать его голос.
Эмоциональная привязанность есть уязвимое место, которое можно использовать для корпоративной выгоды, и мы, вероятно, начнем замечать много маленьких, но неприятных попыток в течение следующего года.
Сегодня мы все еще высмеиваем людей, которые верят, что система искусственного интеллекта разумна или выпускаем сенсационные новости о людях, влюбившихся в чат-бота. Но в следующем году мы постепенно начнем признавать – и воспринимать более серьезно – это в основе своей человеческое поведение. Потому что в 2024 году станет очевидно: машины не исключение из наших социальных отношений.
По материалам: Wired