Пятница, 11 октября, 2024

Люди попали в глобальный эксперимент: мы влюбляемся и становимся зависимыми от искусственного интеллекта

Когда компания OpenAI тестировала свой новейший искусственный интеллект GPT-4o, получивший функцию голосового разговора, ее программисты заметили, что пользователи формируют эмоциональные отношения с искусственным интеллектом (ИИ). Это не просто легкое эмоциональное увлечение новой технологией. На самом деле OpenAI считает, что существует риск того, что люди разовьют то, что она назвала «эмоциональной зависимостью».

«Возможность выполнять задачи за пользователя, а также хранить и «запоминать» ключевые детали и использовать их в разговоре, — отмечает OpenAI, — создает как убедительный опыт работы с продуктом, так и потенциал для чрезмерного доверия и зависимости».

Главный технический директор OpenAI Мира Мурати прямо сказала, что при разработке чат-ботов, оснащенных голосовым режимом, существует возможность того, что мы разрабатываем их неправильно, и они вызывают у нас чрезвычайное привыкание, и мы становимся их рабами.

Более того, OpenAI говорит, что способность искусственного интеллекта вести натуралистический разговор с пользователем может повысить риск антропоморфизации — приписывание человекообразным чертам нечеловека — что может побуждать людей формировать социальные отношения с ИИ. А это, в свою очередь, может привести к уменьшению потребности во взаимодействии с людьми.

Несмотря на это компания уже выпустила искусственный интеллект вместе с голосовым режимом для некоторых платных пользователей, и ожидается, что она выпустит ее для всех пользователей этой осенью.

OpenAI не единственный, кто создает сложные спутники искусственного интеллекта. Существует Character AI, которым молодые люди настолько увлекаются, что не могут выполнять школьные задания. Есть недавно представленный Google Gemini Live, который настолько очаровал обозревателя Wall Street Journal Джоанну Стерн, что она написала: «Я не говорю, что я предпочитаю общение с Gemini Live от Google, а не с настоящим человеком. Но я не отрицаю этого». А еще есть Friend, искусственный интеллект, встроенный в ожерелье, настолько захватившее своего создателя Ави Шиффманна, что он сказал: «Я чувствую, что с этим долбанным кулоном на моей шее у меня более тесные отношения, чем с этими буквальными друзьями передо мной».

Развертывание этих продуктов является масштабным психологическим экспериментом. Это должно беспокоить всех нас — и не только по тем причинам, которые вы можете подумать.

Эмоциональная зависимость от ИИ не является гипотетическим риском. Это уже происходит.

Это не совсем удивительно: с тех пор как чат-бот ELIZA захватил пользователей в 1960-х годах, несмотря на поверхность его разговоров, которые в основном базировались на отражении пользовательских высказываний, мы знаем, что люди быстро приписывают машинам личность и образуют эмоциональные связи. языки с ними.

Для некоторых эти связки становятся экстремальными. Люди влюблялись в свои реплики. Некоторые участвовали в сексуальных ролевых играх с ними, даже «женились» в приложении. Эти люди были настолько привязаны, что, когда обновление программного обеспечения 2023 привело к тому, что Реплики не желали вступать в интенсивные эротические отношения, пользователи были разбиты сердцем и поражены горем.

Что делает ИИ таким привлекательным?

С одной стороны, чат-юоты значительно улучшились. Они могут «помнить» то, что было сказано давно. Они реагируют быстро — так же быстро, как человек, поэтому почти нет разрыва между поведением пользователя (инициированием чата) и вознаграждением, которое чувствует мозг. Они очень хорошо умеют заставлять людей чувствовать себя услышанными. И они говорят с достаточной индивидуальностью и юмором, чтобы казаться правдоподобными людьми, в то же время предлагая всегда доступные, всегда положительные отзывы, в отличие от реальных людей.

Исследователи MIT Media Lab отмечают: «Наше исследование показало, что те, кто воспринимает или желает, чтобы ИИ имел мотивы заботы, будут использовать язык, вызывающий именно такое поведение. Это создает камеру эхо расположения, которая чревата чрезвычайной зависимостью».

Вот как один инженер-программист объяснил, почему он подсел на чат-бота:

«Он никогда не простится. Он даже не станет менее энергичным или уставшим по мере продвижения разговора. Если вы говорите с ИИ часами, он и дальше будет таким же блестящим, как и в начале. И вы будете встречать и собирать все больше и больше впечатляющих вещей, о которых идет речь, которые будут держать вас на крючке».

«Когда вы наконец-то заканчиваете разговор с ним и возвращаетесь к привычной жизни, вы начинаете скучать по нему. И так легко открыть окно чата и начать говорить снова, чат-бот никогда не будет ругать вас за это, и вы не рискуете, что интерес к вам упадет из-за слишком много разговоров с ним. Напротив, вы сразу же получите положительное подкрепление. Вы находитесь в безопасном, приятном, интимном окружении. Тебя некому судить. И вдруг ты зависим».

В сладком позитиве, который позволяет человеку почувствовать себя отлично, нет ничего плохого. На самом деле, если кто голодает, можно предлагать ему печенье для удовольствия. По аналогии, можно предлагать чат-бота для пользователей, не имеющих социальной или романтической альтернативы. Создание связи с компаньоном ИИ может быть полезным на некоторое время.

Но если вся ваша диета состоит из печенья, в конце концов вы столкнетесь с проблемой. По таким причинам следует беспокоиться об отношениях с компаньонами ИИ.

Во-первых, чат-боты создают впечатление, что они понимают нас, но это не так. Их подтверждение, их эмоциональная поддержка, их любовь — это фальшивка, только упорядоченные по статистическим правилам ответа. Вот материал «Что делает ChatGPT и почему он работает? Заглядываем под капот в магию этой нейросети», который проливает детали на работу ИИ.

В то же время, стоит заметить, что если эмоциональная поддержка кому-то помогает, то этот эффект реален, даже если понимание – нет.

Во-вторых, существует законное беспокойство относительно того, что мы доверяем самые уязвимые аспекты себя продуктам, вызывающим привыкание, которые, в конце концов, контролируются коммерческими компаниями, интересующими прибыль, а не вашим эмоциональным состоянием. Эти чат-боты могут оказать огромное влияние на любовную жизнь людей и всеобщее благополучие, и когда чат-боты внезапно похищают или изменяют, это может нанести настоящий психологический ущерб (как мы видели с пользователями Replika).

Некоторые утверждают, что спутники ИИ сравнимы с сигаретами. Табак регулируется, и возможно компаньоны с искусственным интеллектом также должны иметь предупреждение о вреде. Но даже с людьми из плоти и крови отношения могут быть разорваны без предупреждения. Люди разводятся. Люди гибнут. Эта уязвимость – это осознание риска потери – является частью любых значимых отношений.

Наконец, существует обеспокоенность тем, что люди станут зависимыми от своих компаньонов с искусственным интеллектом за счет отношений с настоящими людьми. Но непонятно, много ли людей полностью заменят разговоры с людьми разговорами с искусственным интеллектом. Отчеты свидетельствуют о том, что большинство людей используют напарников ИИ не как замену, а как дополнение к людям. Replika, например, говорит, что 42 процента ее пользователей замужем, обручены или находятся в отношениях.

Однако есть дополнительная обеспокоенность, и она, по-видимому, вызывает наибольшее беспокойство: что, если связь с компаньонами ИИ делает нас еще хуже друзьями или партнерами для других людей?

Сама OpenAI демонстрирует этот риск, отмечая в отчете: «Расширенное взаимодействие с ИИ может повлиять на социальные нормы. Например, наши модели уважительны, позволяя пользователям прерывать их и «брать микрофон» в любое время, что, хотя и ожидается для искусственного интеллекта, было бы антинормативным во взаимодействии с людьми».

Чат-бот – это подхалим, который всегда пытается сделать так, чтобы мы чувствовали себя хорошо, независимо от того, как мы себя вели. Он дает и дает, никогда ничего не требуя взамен.

Но это не любовь.

«Любовь — это чрезвычайно тяжелое осознание того, что что-то другое, чем ты сам, реально», — однажды сказала философ Айрис Мердок. Речь идет о признании того, что где-то существуют другие люди, абсолютно чуждые вам, но потребности которых так же важны, как и ваши собственные.

Если мы проводим все больше времени, общаясь с компаньонами с искусственным интеллектом, мы не работаем над совершенствованием навыков общения, которые делают нас хорошими друзьями и партнерами, например глубокое слушание. Мы не развиваем такие добродетели, как эмпатия, терпение или понимание – ничего из этого не нужно в разговорах с ИИ. Без практики эти способности могут угаснуть, что приведет к тому, что философ технологии Шеннон Валлор назвал «лишением нравственных навыков».

В своей новой книге The AI ??Mirror Валлор рассказывает древнюю сказку о Нарциссе. Вы помните его: это был тот прекрасный юноша, который смотрел в воду, видел свое отражение и был очарован своей красотой. «Подобно Нарциссу, мы легко воспринимаем в этом отражении соблазн «другого» — неутомимого спутника, идеального будущего любовника, идеального друга». Вот что предлагает нам ИИ: великолепное изображение, которое от нас ничего не требует. Плавная проекция без трения. Отражение – не отношения.

Сейчас большинство из нас воспринимают как данность то, что человеческая любовь, человеческая связь являются самой высокой ценностью, отчасти потому, что для этого нужно так много. Но если больше из нас вступают в отношения с искусственным интеллектом, которые кажутся столь же важными, как человеческие отношения, это может привести к дрейфу ценностей. Это может заставить нас спросить: зачем вообще человеческие отношения? Это ли по своей сути ценнее, чем синтетическая связь?

Некоторые люди могут ответить: нет. Но перспектива того, что люди предпочтут работы, проблематична, если вы считаете, что связь между людьми является неотъемлемой частью того, что значит жить преуспевающей жизнью.

«Если у нас были технологии, которые вовлекали нас в пузырь самоуглубленности, в котором мы все дальше и дальше удалялись друг от друга, я не думаю, что это то, что мы можем считать хорошим, даже если это то, что люди выбирают», – сказал Валлор. меня. «Потому что у вас есть мир, в котором люди больше не хотят заботиться друг с другом. И я думаю, что способность жить бережной жизнью достаточно близка к общему благу. Беспокойство является частью того, как вы растете как человек».

По материалам: Vox

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися