Четверг, 9 мая, 2024

Instagram готовит защиту женщин от нежелательных ню-фото

Instagram работает над новой функцией защиты от нежелательных обнаженных изображений в ящике входящих сообщений. Система автоматически определяет фотографии сексуального характера, но при этом сам Instagram не будет видеть снимок, обещают в компании.

В Meta (новое название Facebook), владеющей Instagram, говорят, что новая функция находится на ранних стадиях разработки и будет добровольной для пользователей.

Технология включает фотографии, которые могут содержать потенциальное обнаженное тело, во входящих сообщениях пользователя (DM). Сам Instagram не может получить доступ к фотографии. Технология защиты от нежелательного обнаженного тела не позволит также Meta просматривать фактические изображения, а также не будет доступна третьим сторонам.

Если пользователи активируют эту функцию защиты от нежелательных ню-фото, приложение автоматически размывает изображение, если обнаружит фотографию с обнаженным телом. Фотография останется закрытой, пока пользователь не решит ее просмотреть, нажав на нее.

Новая функция появилась после широко распространенной критики, что Instagram игнорирует женоненавистнические притязания, с которыми сталкиваются его пользовательницы.

В апреле Центр противодействия цифровой ненависти опубликовал отчет о том, что приложение не заметил «эпидемию жестокого обращения с женоненавистниками», посланного через DM платформы ее пользователям. Instagram не принял меры относительно 90 процентов оскорбительных DM-сообщений с изображениями, отправленными публично известным женщинам.

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися