У четвер корпорація Google повідомила про виявлення спроб “комерційно вмотивованих” суб’єктів здійснити клонування знань із її чат-бота Gemini, що працює на основі штучного інтелекту. Ці спроби здійснювалися шляхом багаторазових запитів до системи. Одна з таких шкідницьких сесій, як повідомляється, включала понад 100 000 запитів, адресованих моделі різними неанглійськими мовами, з чіткою метою збору відповідей, що мали б бути використані для навчання дешевшої копії чат-бота.
Ці висновки були оприлюднені Google в рамках щоквартального самостійного оцінювання загроз для власних продуктів, що, як правило, представляє компанію у ролі жертви та водночас рятівника, що є типовою практикою для таких внутрішніх звітів. Компанія Google кваліфікує цю незаконну діяльність як “екстракцію моделі” та розглядає її як крадіжку інтелектуальної власності. Однак, така позиція є дещо неоднозначною, враховуючи, що власна велика мовна модель Google була створена з матеріалів, зібраних з інтернету без відповідного дозволу правовласників.
Водночас, корпорація Google не є новачком у практиці копіювання. За даними видання The Information, опублікованими у 2023 році, команда Google Bard була звинувачена у використанні вихідних даних ChatGPT з ShareGPT – публічного сайту, де користувачі обмінюються розмовами з чат-ботами – для навчання власного чат-бота. Яків Девлін, старший дослідник штучного інтелекту Google та творець впливової мовної моделі BERT, попереджав керівництво, що такі дії порушують умови надання послуг OpenAI, після чого звільнився та приєднався до OpenAI. Google заперечив ці твердження, проте, як повідомляється, припинив використовувати зазначені дані.



