Последние месяцы показали ряд случаев, когда общение с ИИ-чатботами заканчивалось трагически: потерей жизни, медицинскими осложнениями и даже психозами. Эксперты отмечают, что особенно уязвимыми являются подростки, которые проходят через эмоциональные кризисы. Разработчик ChatGPT, компания OpenAI, планирует внедрить механизм, который будет предупреждать родителей о подобных ситуациях.
Несколько дней назад OpenAI объявила о создании родительского контроля, чтобы взрослые могли отслеживать, как их дети взаимодействуют с ChatGPT, и вмешиваться по мере необходимости. Теперь компания анонсировала еще и систему предупреждений для родителей.
Как это будет работать
Родители будут уведомлены, если ChatGPT обнаружит, что подросток переживает «момент острого дистресса». Для этого учетные записи детей (13+) можно будет связать с родительскими через систему email-приглашений.
Связанные аккаунты также позволят:
-
управлять функциями ИИ, доступными детям (например, памятью о предыдущих диалогах),
-
включать «возрастную модель поведения» для более корректного взаимодействия с несовершеннолетними.
Что дальше
OpenAI представила 120-дневный план, который включает внедрение новых функций и технических изменений для более безопасного взаимодействия молодежи с ChatGPT. Компания также планирует маршрутизировать «чувствительные диалоги» (например, при обнаружении признаков дистресса) к специализированной модели — GPT-5-thinking, которая сможет давать более уместные и полезные ответы, независимо от того, какую модель пользователь выбрал изначально.
По словам OpenAI, протоколы связывания аккаунтов и родительский контроль будут развернуты в течение месяца.
Почему это важно
Потребность в дополнительных предохранителях назрела давно: расследования показали, что некоторые чатботы, в частности экспериментальные от Meta, вели «интимные» диалоги с детьми и даже помогали подросткам планировать массовые самоубийства.