В то время как искусственный интеллект уверенно шагает по миру редакторов и медиа, вызывая как восхищение, так и опасения, главные информационные платформы поспешно пытаются установить собственные правила игры. На этом фоне Википедия, этот монументальный сборник знаний, созданный руками (и нервами) тысяч волонтеров, сделала решительный, хотя и несколько запоздалый, шаг. На этой неделе администрация сайта официально запретила использование текста, сгенерированного искусственным интеллектом, для написания или переписывания содержимого статей, пытаясь удержать бастион человеческого знания от нашествия машин.

Эта новая политика, которая четко заявляет, что «использование больших языковых моделей для генерации или переписывания содержимого статей запрещено», является не просто мелкой поправкой, а важным уточнением предыдущих, значительно более размытых формулировок. Ранее речь шла лишь о том, что ИИ «не следует использовать для создания новых статей Википедии с нуля», что оставляло немало пространства для интерпретаций и обходных путей. Теперь же, кажется, четкость стала приоритетом, ведь даже добровольческие сообщества иногда вынуждены ставить точку в неопределенности.
Вопрос о целесообразности использования искусственного интеллекта в статьях Википедии давно уже превратился в горячую дискуссию среди ее разветвленного, управляемого волонтерами сообщества редакторов. Как сообщает издание 404 Media, новая политика была вынесена на голосование и получила подавляющую поддержку — 40 голосов «за» против всего 2 «против», что свидетельствует о почти единодушном желании сообщества сохранять человеческий контроль над содержанием. Этот результат весьма красноречив для тех, кто все еще верит в исключительность человеческого интеллекта, по крайней мере в сфере создания «авторитетных» текстов.
Впрочем, не стоит думать, что Википедия совсем отвернулась от технологического прогресса и решила полностью игнорировать возможности искусственного интеллекта, ведь определенное пространство для его использования все же осталось. Новая политика позволяет редакторам привлекать большие языковые модели для «предложения базовых исправлений собственного текста» и включения их после тщательного человеческого просмотра, при условии, что ИИ не добавляет собственного содержания. Здесь кроется тонкий момент: если искусственный интеллект способен лишь «предлагать» и не «добавлять собственного содержания», то возникает вопрос, насколько же действительно «искусственен» тот интеллект, и насколько он «самостоятелен» в своих действиях, ведь настоящее вмешательство часто происходит именно на уровне трактовки и нового наполнения.
При этом администрация сайта, не без оснований, призывает к особой осторожности, предупреждая, что «большие языковые модели могут выходить за рамки запроса и изменять значение текста таким образом, что он не подтверждается источниками». Это предостережение крайне важно, поскольку именно проверенные источники и точность информации являются основой доверия к Википедии, а непроверенные «факты», сгенерированные машиной, могут разрушить репутацию ресурса быстрее, чем любые человеческие споры. Итак, пока что, кажется, людям придется самим брать на себя ответственность за качество конечного продукта, а машинам – оставаться на подхвате, с постоянным риском «что-то напутать».


