Среда, 16 октября, 2024

Википедия объявляет войну искусственному интеллекту

Вторичный низкокачественный текст, создающий искусственный интеллект (ИИ), вызывает беспокойство у редакторов крупнейшей онлайн-энциклопедии Википедия. Низкокачественные тексты от ИИ угрожают ухудшить удобство использования Википедии, поэтому ее редакторы начали борьбу с искусственным интеллектом.

Команда редакторов Википедии собралась, чтобы создать WikiProject AI Cleanup, описывающий себя как сотрудничество для борьбы с растущей проблемой ненадлежащего, плохо написанного ШИ-контента в Википедии.

Группа утверждает, что они не хотят прямо запрещать использование искусственного интеллекта, а стремятся искоренить случаи плохого источника, полного галлюцинаций или другого бесполезного контента от искусственного интеллекта. Это подрывает общее качество информации в интернет-энциклопедии, существующей десятилетиями.

«Цель этого проекта состоит не в том, чтобы ограничить или запретить использование искусственного интеллекта в статьях, — говорится на форуме Wikipedia, — а в том, чтобы убедиться, что его результаты приемлемы и конструктивны, а также исправить или удалить это в противном случае ».

В некоторых случаях неправильное использование ИИ очевидно. Одним из явных признаков является то, что редакторы оставляют в статьях Википедии автоматические шаблоны искусственного интеллекта, например абзацы, начинающиеся словами «как языковая модель искусственного интеллекта, я…» или «на мои последние обновления знаний».

Редакторы также говорят, что научились распознавать определенные шаблоны текста и фразы, часто использующей искусственный интеллект. Это позволило им заметить и нейтрализовать нечистоплотный ИИ-текст.

«Некоторые из нас заметил распространенность неестественного письма, демонстрировавшего явные признаки создания искусственным интеллектом, и нам удалось воспроизвести подобные «стили» с помощью ChatGPT», — сказал основатель WikiProject AI Cleanup Ильяс Лебле. Добавив, что открытие некоторых общих крылатых фраз искусственного интеллекта позволило им быстро заметить некоторые из наиболее вопиющих примеров созданных статей».

Тем не менее, многие некачественные AI-контенты трудно заметить, особенно когда речь идет об ошибках в фактах, скрытых в сложном материале.

Одним из примеров была поразительно созданная история деревянной османской крепости, которой на самом деле никогда не существовало. Текст был достаточно приемлем, чтобы, если бы вы не специализировались на османской архитектуре 13-го века, вы бы, скорее всего, не заметили ложь.

Ранее редакторы Википедии в некоторых случаях решали снизить надежность некоторых новостных сайтов, таких как CNET. Эти новостные сайты в прошлом году публиковали новостные статьи, полные ошибок – это как прямой результат неправильного использования искусственного интеллекта для написания этих статей.

 

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися