Неділя, 12 Січня, 2025

Apple хочуть засудити на $1,2 млрд, бо вона відклала інструмент шпигування CSAM

Apple створила систему CSAM, яка сканує всі фотографії у вашому iPhone, а також інших девайсах. Після значного невдоволення громадськості від появи CSAM компанія Apple публічно відклала запуск цієї системи, схоже, запустивши CSAM по-тихому. Але офіційна позиція така, що CSAM не запущена і деякі люди хочуть оштрафувати Apple за це на суму в $1,2 млрд.

Система CSAM – це сканування усіх мультимедійних файлів в пристрої в пошуку матеріалів сексуального насильства над дітьми. Спершу ваші фото та відео аналізують алгоритми, і коли знаходять щось, що нагадує дитячу порнографію, відправляють ці файли на аналіз людям-модераторам. Таке спрацьовування системи заносить користувача в список підозрілих осіб. Якщо люди-модератори підтвердять, що підозрілий файл є дитячою порнографією, вони передадуть дані про цього користувача правоохоронним органам.

Проблема CSAM, окрім очевидного порушення приватності, полягає в можливості зловживань з боку репресивних урядів. Адже система може сканувати фотографії та відео не лише в пошуку дитячої порнографії. Система CSAM може шукати, наприклад, політичний контент.

«Інструмент, призначений для націлювання на серйозних злочинців, можна легко адаптувати для виявлення тих, хто виступає проти уряду чи однієї чи кількох його політик. Apple, яка отримувала б базу даних [забороненого контенту] від урядів, мимоволі опинилася б у підтримці репресій або, що ще гірше, проти політичних активістів», – повідомила Apple.

Але у Apple не буде вибору. Як відомо, компанія каже щоразу, коли їй доводиться робити щось неоднозначне для дотримання закону: «Apple дотримується закону в кожній із країн, у яких вона працює».

Сьогодні Сервіс iCloud є одним із небагатьох хмарних сервісів, які поки що офіційно заперечують наявність сканування CSAM. Намагаючись запровадити сканування CSAM з повагою до конфіденційності, Apple запропонувала запустити цей інструмент локально на пристроях користувачів без відправки в «хмару».

Жертви дитячого сексуального насильства тепер подають до суду на Apple за те, що вона не виконувала сканування фотографій власників iPhone та iPad у пошуках дитячої порнографії.

Якщо жертви сексуального насильства над дітьми, які подали до суду, виграють судову справу, Apple може зіткнутися зі штрафом у розмірі понад 1,2 мільярда доларів. І, мабуть, Apple також може бути змушена офіційно оголосити про використання CSAM в iCloud.

Позивачі звинувачують Apple у отриманні прибутку від своєї політики стосовно CSAM. На їхню думку, Apple отримує прибуток, оскільки злочинці розглядають її продукти як безпечні для зберігання дитячої порнографії.

У той час як Apple повідомила лише про 267 відомих випадків сексуального насильства у 2023 році, чотири інші провідні технологічні компанії подали понад 32 мільйони звітів, як зазначено в позові. І якщо нібито м’який підхід Apple до CSAM залишиться неконтрольованим, позивачі побоюються, що штучний інтелект може експоненціально збільшити кількість дитячої порнографії, про яку не повідомляють.

У відповідь компанія заявила, що вживає активних заходів для вирішення проблеми.

 

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися