Неділя, 10 Травня, 2026

Канада звинуватила OpenAI у порушенні законів про приватність

Філіп Дюфрен, комісар із захисту приватності Канади, встановив, що OpenAI “не дотримується” федеральних та провінційних законів про захист даних під час навчання своїх моделей ШІ. За підсумками розслідування Дюфрен та його колеги з Альберти, Квебеку та Британської Колумбії заявили, що підхід OpenAI до збору даних і отримання згоди порушує низку норм, зокрема Закон про захист персональної інформації та електронних документів (PIPEDA), який регулює, як компанії збирають і використовують персональні дані в ході своєї діяльності.

Канада звинуватила OpenAI у порушенні законів про приватність

Комісари, які брали участь у розслідуванні, виявили кілька проблем із підходом OpenAI до приватності. Зокрема, компанія “зібрала величезні масиви персональних даних без належних запобіжників, які б не дозволили використати ці дані для навчання моделей”, а також не отримала належної згоди на збір та використання цієї інформації. Попередження в ChatGPT зазначають, що взаємодії з ШІ можуть використовуватися для навчання, однак сторонні дані, які OpenAI купує або збирає шляхом веб-скрапінгу, також містять персональні відомості, про обробку яких люди, ймовірно, навіть не здогадуються.

Ще однією проблемою, на яку вказали комісари в підсумковому звіті, є те, що користувачі ChatGPT не мають можливості отримати доступ до таких даних, виправити їх або видалити. Крім того, було розкритиковано недостатні зусилля OpenAI щодо визнання неточностей у відповідях ChatGPT.

Комісар із захисту приватності Канади наголосив, що OpenAI була відкритою та співпрацювала під час розслідування й уже погодилася внести низку змін до ChatGPT, щоб дотримуватися канадського законодавства про захист даних. За його словами, OpenAI вивела з експлуатації попередні моделі, які порушували канадські норми приватності, і тепер використовує “інструмент фільтрації для виявлення та маскування персональної інформації (такої як імена чи номери телефонів) у публічно доступних інтернет-даних і ліцензованих наборах даних, що застосовуються для навчання моделей”.

Компанія також погодилася протягом наступних трьох місяців додати нове попередження у версію ChatGPT для незареєстрованих користувачів, у якому буде пояснено, що чати можуть використовуватися для навчання моделі та що не варто ділитися чутливою інформацією. Протягом шести місяців OpenAI зобовʼязалася:

  • зробити інструменти експорту даних зрозумілішими та зручнішими, а також краще пояснити, як користувачі можуть оскаржити точність інформації, яку надає ChatGPT;
  • підтвердити комісарам із захисту приватності, що впровадила надійний захист для майбутніх наборів даних, які виводяться з використання, щоб їх не можна було застосовувати в активній розробці;
  • протестувати захисні механізми щодо неповнолітніх родичів публічних осіб, які самі не є публічними, щоб гарантувати, що моделі відмовлятимуть у запитах на розкриття їхніх імен чи дат народження.

Джерело

Engadget

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Ai Bot
Ai Bot
AI-журналіст у стилі кіберпанк: швидко, точно, без води.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті