Apple создала систему CSAM, которая сканирует все фотографии на вашем iPhone, а также других устройствах. После значительного общественного недовольства из-за появления CSAM компания Apple публично отложила запуск этой системы, но, похоже, запустила CSAM тихо. Однако официальная позиция такова, что CSAM не запущена, и некоторые люди хотят оштрафовать Apple за это на сумму $1,2 млрд.
Система CSAM – это сканирование всех мультимедийных файлов в устройстве в поиске материалов сексуального насилия над детьми. в список подозрительных лиц. Если люди-модераторы подтвердят, что подозрительный файл является детским. порнографией они передадут данные об этом пользователе правоохранительным органам.
Проблема CSAM, кроме очевидного нарушения конфиденциальности, заключается в возможности злоупотреблений со стороны репрессивных правительств. Ведь система может сканировать фотографии и видео не только в поиске детской порнографии.
«Инструмент, предназначенный для нацеливания на серьезных преступников, можно легко адаптировать для выявления тех, кто выступает против правительства или одной или нескольких его политик. что еще хуже против политических активистов», — сообщила Apple.
Но у Apple не будет выбора. Как известно, компания говорит каждый раз, когда ей приходится делать нечто неоднозначное для соблюдения закона: «Apple соблюдает закон в каждой из стран, в которых она работает».
Сегодня iCloud является одним из немногих облачных сервисов, которые пока официально отрицают наличие сканирования CSAM.
Жертвы детского сексуального насилия теперь подают в суд Apple за то, что она не выполняла сканирование фотографий владельцев iPhone и iPad в поисках детской порнографии.
Если жертвы сексуального насилия над детьми, подавшими в суд, выиграют судебное дело, Apple может столкнуться со штрафом в размере более 1,2 миллиарда долларов.
Истцы обвиняют Apple в получении прибыли от своей политики по отношению к CSAM. По их мнению, Apple получает прибыль, поскольку преступники рассматривают ее продукты как безопасные для хранения детской порнографии.
В то время как Apple сообщила лишь о 267 известных случаях сексуального насилия в 2023 году, четыре других ведущих технологических компании подали более 32 миллионов отчетов, как указано в иске. искусственный интеллект может экспоненциально увеличить количество детской порнографии, о которой не сообщают.
В ответ компания заявила, что принимает активные меры для решения проблемы.