Вторник, 23 декабря, 2025

Каждый третий использует искусственный интеллект для эмоциональной поддержки и общения

Согласно исследованию, опубликованному правительственным агентством, каждый третий взрослый в Великобритании использует искусственный интеллект для эмоциональной поддержки или социального взаимодействия.

При этом каждый 25-й человек ежедневно обращается к таким технологиям за поддержкой или общением, согласно первому отчету Института безопасности искусственного интеллекта (AISI).

Отчет основан на результатах двухлетнего тестирования возможностей более чем 30 передовых, но неназванных систем искусственного интеллекта. Оценка охватывала области, имеющие решающее значение для безопасности, включая кибербезопасность, химию и биологию.

Правительство заявило, что работа AISI должна поддержать будущие правительственные инициативы, помогая компаниям устранять проблемы «до того, как их системы искусственного интеллекта получат широкое распространение».

Опрос AISI, в котором приняли участие более 2000 взрослых британцев, показал, что люди в основном используют чат-ботов, таких как ChatGPT, для эмоциональной поддержки или социального взаимодействия. Голосовые помощники, в частности Amazon Alexa, вышли на второе место по популярности.

Исследователи также проанализировали, что случилось с Reddit, онлайн-сообществом с более чем двумя миллионами пользователей, посвященным обсуждению компаньонов ИИ, когда эти технологии перестали работать.

Было обнаружено, что когда чат-боты давали сбой, люди сообщали о так называемых «симптомах абстиненции», включая чувство тревоги или депрессии, нарушения сна и пренебрежение повседневными задачами.

Удвоение кибервозможностей

Помимо эмоционального воздействия использования искусственного интеллекта, исследователи AISI проанализировали и другие риски, связанные с быстрым ростом возможностей этой технологии.

Существует значительная обеспокоенность по поводу использования искусственного интеллекта для проведения кибератак, но в то же время его также можно использовать для защиты систем от хакеров.

В отчете говорится, что способность искусственного интеллекта обнаруживать и использовать уязвимости безопасности в некоторых случаях «удваивается каждые восемь месяцев».

Также было отмечено, что системы искусственного интеллекта начинают выполнять киберзадачи экспертного уровня, которые обычно требуют более 10 лет профессионального опыта.

Исследователи также отметили стремительный рост влияния искусственного интеллекта в науке.

В 2025 году модели ИИ «давно превзойдут экспертов по биологии, имеющих докторскую степень, и химия быстро догонит их».

«Потеря контроля над человеком»

От таких романов, как «Я робот» Айзека Азимова, до современных видеоигр, таких как Horizon: Zero Dawn, научная фантастика уже давно представляет сценарии, в которых искусственный интеллект выходит из-под контроля человека.

Согласно отчету, «наихудший сценарий», при котором люди потеряют контроль над передовыми системами искусственного интеллекта, «серьезно рассматривается многими экспертами».

Контролируемые лабораторные испытания показали, что модели искусственного интеллекта все чаще демонстрируют некоторые возможности, необходимые для самовоспроизведения в Интернете.

AISI исследовала, могут ли модели выполнять простые версии задач, необходимых на ранних этапах самовоспроизведения, включая «прохождение процедур идентификации клиентов, необходимых для доступа к финансовым услугам», чтобы успешно приобретать вычислительные ресурсы, на которых могут работать их реплики.

Однако исследования показали, что для реализации этого в реальном мире системам искусственного интеллекта необходимо выполнить несколько таких действий подряд «незамеченными», а на это, по имеющимся данным, они в настоящее время не способны.

Эксперты института также рассматривали возможность так называемого «мешка с песком», то есть стратегического сокрытия истинных возможностей моделей во время испытаний.

Тесты показали, что такое поведение теоретически возможно, однако не было обнаружено никаких доказательств того, что такое сокрытие действительно имеет место.

В мае Anthropic опубликовала противоречивый отчет, в котором описывалась одна из ее моделей ИИ как демонстрирующая поведение, напоминающее шантаж, когда компания считала, что ее «самосохранение» находится под угрозой.

В то же время угроза, исходящая от неконтролируемого искусственного интеллекта, по-прежнему глубоко разделена среди ведущих исследователей, многие из которых считают, что эти опасения преувеличены.

«Универсальные побеги из тюрьмы»

Чтобы снизить риск злонамеренного использования своих систем, компании внедряют многочисленные меры безопасности.

Однако для всех исследованных моделей исследователям удалось найти так называемые «универсальные джейлбрейки», то есть методы обхода защиты, позволяющие обойти установленные ограничения.

При этом для некоторых моделей время, необходимое специалистам для принудительного обхода защитных механизмов, за шесть месяцев увеличилось в сорок раз.

В отчете также отмечается рост использования инструментов, которые позволяют агентам ИИ выполнять «задачи высокого риска» в критически важных секторах, особенно в финансах.

При этом исследователи не рассматривали потенциал искусственного интеллекта в условиях краткосрочной безработицы из-за вытеснения людей с рабочих мест.

Институт также не анализировал воздействие на окружающую среду вычислительных ресурсов, необходимых для запуска продвинутых моделей, утверждая, что его задача состоит в том, чтобы сосредоточиться на «социальных последствиях», которые напрямую связаны с возможностями искусственного интеллекта, а не на более «нечетких» экономических или экологических эффектах.

В то же время некоторые эксперты считают, что как экономические, так и экологические последствия представляют собой неотложные и серьезные социальные угрозы, связанные с этой технологией.

Кроме того, за несколько часов до публикации отчета AISI было опубликовано рецензируемое научное исследование, в котором предполагается, что воздействие на окружающую среду может быть больше, чем считалось ранее, и содержится призыв к крупным технологическим компаниям предоставить более подробные данные.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті