Instagram працює над новою функцією захисту від небажаних оголених зображень у скриньці вхідних повідомлень. Система автоматично визначає фотографій сексуального характеру, але при цьому сам Instagram не бачитиме знімок, обіцяють у компанії.
У Meta (нова назва Facebook), яка володіє Instagram, кажуть що нова функція знаходиться на ранніх стадіях розробки і буде добровільною для користувачів.
Технологія охоплює фотографії, які можуть містити потенційне оголене тіло, у вхідних повідомленнях користувача (DM). Сам Instagram не може отримати доступ до фотографії. Технологія захисту від небажаного оголеного тіла не дозволить також Meta переглядати фактичні зображення, а також не буде доступною для третіх сторін.
Якщо користувачі активують цю функцію захисту від небажаних ню-фото, програма автоматично розмиватиме зображення, якщо виявить фотографію з оголеним тілом. Фотографія залишиться закритою, до моменту, поки користувач не вирішить її переглянути, натиснувши на неї.
Нова функція з’явилася після широко поширеної критики, що Instagram ігнорує жінконенависницькі домагання, з якими стикаються його користувачки.
У квітні Центр протидії цифровій ненависті опублікував звіт про те, що додаток не помітив «епідемії жорстокого поводження з женоненависниками», надісланого через DM платформи її користувачам. Instagram не вжив заходів стосовно 90 відсотків образливих DM-повідомлень із зображеннями, надісланих публічно відомим жінкам.