Штучний інтелект GitHub Copilot від Microsoft опинився в центрі колективного позову. Позивачі стверджують, що цей віртуальний програміст здійснює піратство програмного забезпечення в безпрецедентних масштабах.
Справу розпочав 3 листопада дизайнер і програміст Метью Баттерік разом із юридичною фірмою Джозефа Савері для розслідування діяльності GitHub Copilot. Команда подала колективний позов до федерального суду Сан-Франциско від імені потенційно мільйонів користувачів GitHub.
Позов спрямований на те, щоб оскаржити законність GitHub Copilot, а також OpenAI Codex. Позов був поданий проти GitHub, Microsoft і OpenAI.
GitHub і OpenAI запустили Copilot у червні 2021 року. Цей продукт на основі штучного інтелекту покликаний на меті допомогти програмістам, заповнюючи блоки коду замість них. Вартість допомоги від такого віртуального програміста складає 10 доларів на місяць або 100 доларів на рік.
«Навчаючи свої системи штучного інтелекту на загальнодоступних репозиторіях GitHub (хоча на основі їхніх публічних заяв, можливо, набагато більше), ми стверджуємо, що відповідачі порушили законні права величезної кількості творців, які розмістили код або іншу роботу під певним відкритим кодом. ліцензії на GitHub», — сказав Баттерік.
Порушені ліцензії включають набір з 11 популярних ліцензій з відкритим кодом, які потребують вказівки імені автора та авторських прав. Це включає ліцензію MIT, GNU General Public License та ліцензію Apache.
У справі стверджувалося, що Copilot порушує та вилучає ці ліцензії, які пропонуються тисячами, можливо, мільйонами розробників програмного забезпечення. І, таким чином, здійснює піратство програмного забезпечення в безпрецедентних масштабах.
Відповідно до позову інструмент Copilot, який повністю працює на потужностях Microsoft Azure, часто просто відтворює код, який можна відстежити до репозиторіїв з відкритим кодом або ліцензіатів. Код ніколи не містить посилання на авторів, що є порушенням ліцензій.
«Це несправедливо, дозволено чи виправдано. Навпаки, мета Copilot полягає в тому, щоб замінити величезну частину відкритого вихідного коду, взявши його та зберігаючи в платній системі, контрольованій GitHub. Він порушує ліцензії, які обрали програмісти з відкритим вихідним кодом, і монетизує їхній код, незважаючи на зобов’язання GitHub ніколи цього не робити», — йдеться в груповому позові.
Крім того, у справі зазначено, що відповідачі також порушили власні умови надання послуг GitHub і політику конфіденційності DMCA 1202, який забороняє видаляти інформацію про керування авторським правом, і Каліфорнійський закон про конфіденційність споживачів.
«Наскільки нам відомо, це перший колективний позов у США, який кидає виклик навчанню та результатам діяльності систем штучного інтелекту, — сказав Баттерік. – Він не буде останнім. Системи штучного інтелекту не звільняються від закону. Ті, хто створює та керує цими системами, повинні нести відповідальність. Якщо такі компанії, як Microsoft, GitHub і OpenAI, вирішать нехтувати законом, їм не слід очікувати, що ми, громадськість, сидітимемо на місці. ШІ має бути справедливим і етичним для всіх. Якщо це не так, то він ніколи не зможе досягти своїх хвалених цілей піднесення людства. Це просто стане ще одним способом для небагатьох привілейованих отримати прибуток від праці багатьох.
У жовтні 2022 року розробник Тім Девіс, професор інформатики в Техаському університеті A&M, написав у Twitter, що GitHub Copilot випустив великі фрагменти його коду, захищеного авторським правом, без жодного посилання на нього.
Девіс додав, що він, ймовірно, міг би відтворити всю свою бібліотеку розріджених матриць із простих підказок, щоб підкреслити подібність між його роботою та тим, що створює цей інструмент штучного інтелекту.
«Код, про який йде мова, відрізняється від наведеного прикладу. Схожі, але різні. Якщо ви можете знайти спосіб автоматично ідентифікувати одне як похідне від іншого, запатентуйте його», — відповів творець GitHub Copilot Алекс Грейверлі в Twitter.
Судова справа відбувається в той час, коли Microsoft розглядає можливість залучення технології Copilot для використання для інших категорій робіт, таких як офісна робота, кібербезпека або дизайн відеоігор. Головний технічний директор Microsoft розповів, що технологічний гігант створить деякі інструменти самостійно, а інші нададуть його клієнти, партнери та конкуренти.
Приклади того, що може робити ця технологія, включають допомогу творцям відеоігор у створенні діалогів для неігрових персонажів, тоді як команди кібербезпеки технологічного гіганта досліджують, як інструмент може допомогти боротися з хакерами.
GitHub визнав, що в деяких випадках Copilot може створювати скопійований код, а поточна версія інструменту спрямована на запобігання пропозицій, які відповідають існуючому коду в загальнодоступних сховищах.