Instagram работает над новой функцией защиты от нежелательных обнаженных изображений в ящике входящих сообщений. Система автоматически определяет фотографии сексуального характера, но при этом сам Instagram не будет видеть снимок, обещают в компании.
В Meta (новое название Facebook), владеющей Instagram, говорят, что новая функция находится на ранних стадиях разработки и будет добровольной для пользователей.
Технология включает фотографии, которые могут содержать потенциальное обнаженное тело, во входящих сообщениях пользователя (DM). Сам Instagram не может получить доступ к фотографии. Технология защиты от нежелательного обнаженного тела не позволит также Meta просматривать фактические изображения, а также не будет доступна третьим сторонам.
Если пользователи активируют эту функцию защиты от нежелательных ню-фото, приложение автоматически размывает изображение, если обнаружит фотографию с обнаженным телом. Фотография останется закрытой, пока пользователь не решит ее просмотреть, нажав на нее.
Новая функция появилась после широко распространенной критики, что Instagram игнорирует женоненавистнические притязания, с которыми сталкиваются его пользовательницы.
В апреле Центр противодействия цифровой ненависти опубликовал отчет о том, что приложение не заметил «эпидемию жестокого обращения с женоненавистниками», посланного через DM платформы ее пользователям. Instagram не принял меры относительно 90 процентов оскорбительных DM-сообщений с изображениями, отправленными публично известным женщинам.