П’ятниця, 22 Листопада, 2024

Instagram готує захист жінок від небажаних ню-фото

Instagram працює над новою функцією захисту від небажаних оголених зображень у скриньці вхідних повідомлень. Система автоматично визначає фотографій сексуального характеру, але при цьому сам Instagram не бачитиме знімок, обіцяють у компанії.

У Meta (нова назва Facebook), яка володіє Instagram, кажуть що нова функція знаходиться на ранніх стадіях розробки і буде добровільною для користувачів.

Технологія охоплює фотографії, які можуть містити потенційне оголене тіло, у вхідних повідомленнях користувача (DM). Сам Instagram не може отримати доступ до фотографії. Технологія захисту від небажаного оголеного тіла не дозволить також Meta переглядати фактичні зображення, а також не буде доступною для третіх сторін.

Якщо користувачі активують цю функцію захисту від небажаних ню-фото, програма автоматично розмиватиме зображення, якщо виявить фотографію з оголеним тілом. Фотографія залишиться закритою, до моменту, поки користувач не вирішить її переглянути, натиснувши на неї.

Нова функція з’явилася після широко поширеної критики, що Instagram ігнорує жінконенависницькі домагання, з якими стикаються його користувачки.

У квітні Центр протидії цифровій ненависті опублікував звіт про те, що додаток не помітив «епідемії жорстокого поводження з женоненависниками», надісланого через DM платформи її користувачам. Instagram не вжив заходів стосовно 90 відсотків образливих DM-повідомлень із зображеннями, надісланих публічно відомим жінкам.

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися