Искусственный интеллект GitHub Copilot от Microsoft оказался в центре коллективного иска. Истцы утверждают, что этот виртуальный программист осуществляет пиратство программного обеспечения в беспрецедентных масштабах.
Дело начал 3 ноября дизайнер и программист Мэтью Баттерик вместе с юридической фирмой Джозефа Савери для расследования деятельности GitHub Copilot. Команда подала коллективный иск в федеральный суд Сан-Франциско от имени потенциально миллионов пользователей GitHub.
Иск направлен на то, чтобы оспорить законность GitHub Copilot, а также OpenAI Codex. Иск был подан против GitHub, Microsoft и OpenAI.
GitHub и OpenAI запустили Copilot в июне 2021 года. Этот продукт на основе искусственного интеллекта призван помочь программистам, заполняя блоки кода вместо них. Стоимость помощи такого виртуального программиста составляет 10 долларов в месяц или 100 долларов в год.
«Уча свои системы искусственного интеллекта на общедоступных репозиториях GitHub (хотя на основе их публичных заявлений, возможно, гораздо больше), мы утверждаем, что ответчики нарушили законные права огромного количества создателей, которые разместили код или другую работу под определенным открытым кодом. лицензии на GitHub», — сказал Баттерик.
Нарушенные лицензии включают в себя набор из 11 популярных лицензий с открытым кодом, требующих указания имени автора и авторских прав. Это включает лицензию MIT, GNU General Public License и лицензию Apache.В деле утверждалось, что Copilot нарушает и изымает эти лицензии, которые предлагаются тысячами, возможно, миллионами разработчиков программного обеспечения. И, таким образом, совершает пиратство программного обеспечения в беспрецедентных масштабах.
Согласно иску инструмент Copilot, полностью работающий на мощностях Microsoft Azure, часто просто воспроизводит код, который можно отследить к репозиториям с открытым кодом или лицензиатам. Код никогда не содержит ссылки на авторов, что являюется нарушением лицензий.
«Это несправедливо, разрешено или оправдано. Напротив, цель Copilot состоит в том, чтобы заменить огромную часть открытого исходного кода, взяв его и сохраняя в платной системе, контролируемой GitHub. Он нарушает лицензии, выбранные программистами с открытым исходным кодом, и монетизирует их код, несмотря на обязательства GitHub никогда этого не делать», — говорится в групповом иске.
Кроме того, в деле отмечено, что ответчики также нарушили собственные условия предоставления услуг GitHub и политику конфиденциальности DMCA 1202, запрещающей удалять информацию об управлении авторским правом, и Калифорнийский закон о конфиденциальности потребителей.
«Насколько нам известно, это первый коллективный иск в США, бросающий вызов обучению и результатам деятельности систем искусственного интеллекта, – сказал Баттерик. – Он не будет последним. Системы искусственного интеллекта не освобождаются от закона. Те, кто создает и управляет этими системами, должны нести ответственность. Если такие компании, как Microsoft, GitHub и OpenAI, решат пренебрегать законом, им не следует ожидать, что мы будем сидеть на месте.ИИ должно быть справедливым и нравственным для всех. Если это не так, то он никогда не сможет добиться своих хваленых целей возвышения человечества. Это просто станет еще одним способом для немногих привилегированных извлечь прибыль от труда многих.
В октябре 2022 года разработчик Тим Дэвис, профессор информатики в Техасском университете A&M, написал в Twitter, что GitHub Copilot выпустил большие фрагменты его кода, защищенного авторским правом, без ссылки на него.
Дэвис добавил, что он, вероятно, мог воспроизвести всю свою библиотеку разреженных матриц из простых подсказок, чтобы подчеркнуть сходство между его работой и тем, что создает этот инструмент искусственного интеллекта.
«Код, о котором идет речь, отличается от приведенного примера. Похожие, но разные. Если вы можете найти способ автоматически идентифицировать одно как производное от другого, запатентуйте его», – ответил создатель GitHub Copilot Алекс Грейверли в Twitter.
Судебное дело происходит в то время, когда Microsoft рассматривает возможность привлечения технологии Copilot для использования для других категорий работ, таких как офисная работа, кибербезопасность или дизайн видеоигр. Главный технический директор Microsoft рассказал, что технологический гигант создаст некоторые инструменты самостоятельно, а другие предоставят его клиентам, партнерам и конкурентам.
Примеры того, что может делать эта технология, включают в себя помощь создателям видеоигр в создании диалогов для неигровых персонажей, тогда как команды кибербезопасности технологического гиганта исследуют, как инструмент может помочь бороться с хакерами.
GitHub признал, что в некоторых случаях Copilot может создавать скопированный код, а текущая версия инструмента направлена ??на предотвращение предложений, соответствующих существующему коду в общедоступных хранилищах.