П’ятниця, 22 Листопада, 2024

Вікіпедія оголошує війну штучному інтелекту

Вторинний низькоякісний текст, який створює штучний інтелект (ШІ), викликає занепокоєння у редакторів найбільшої онлайн-енциклопедії Вікіпедія. Низькоякісні тексти від ШІ загрожують погіршити зручність використання Вікіпедії, тому її редактори почали боротьбу зі штучним інтелектом.

Команда редакторів Вікіпедії зібралася, щоб створити WikiProject AI Cleanup, який описує себе як співпрацю для боротьби зі зростаючою проблемою неналежного, погано написаного ШІ-контенту у Вікіпедії.

Група стверджує, що вони не хочуть прямо забороняти використання штучного інтелекту, а натомість прагнуть викорінити випадки поганого джерела, сповненого галюцинацій або іншого некорисного контенту від штучного інтелекту. Це підриває загальну якість інформації в інтернет-енциклопедії, яка існує десятиліттями.

«Мета цього проекту полягає не в тому, щоб обмежити або заборонити використання штучного інтелекту в статтях, — йдеться на форумі Wikipedia, — а в тому, щоб переконатися, що його результати є прийнятними та конструктивними, а також виправити або видалити це в іншому випадку».

У деяких випадках неправильне використання ШІ є очевидним. Однією з явних ознак є те, що редактори залишають у статтях Вікіпедії автоматичні шаблони штучного інтелекту, наприклад абзаци, що починаються словами «як мовна модель штучного інтелекту, я…» або «станом на мої останні оновлення знань».

Редактори також кажуть, що навчилися розпізнавати певні шаблони тексту та фрази, що часто використовує штучний інтелект. Це дозволило їм помітити та нейтралізувати неохайний ШІ-текст.

«Дехто з нас помітив поширеність неприродного письма, яке демонструвало явні ознаки створення штучним інтелектом, і нам вдалося відтворити схожі «стилі» за допомогою ChatGPT», — сказав засновник WikiProject AI Cleanup Ільяс Лебле. Додавши, що відкриття деяких загальних крилаті фрази штучного інтелекту дозволило їм швидко помітити деякі з найбільш кричущих прикладів створених статей».

Тим не менш, багато неякісного AI-контенту важко помітити, особливо коли мова йде про помилки у фактах, приховані в складному матеріалі.

Одним із прикладів, була вражаюче створена історія дерев’яної османської фортеці, якої насправді ніколи не існувало. Текст був достатньо прийнятним, щоб, якщо ви не спеціалізувалися на османській архітектурі 13-го століття, ви б, швидше за все, не помітили брехню.

Раніше редактори Вікіпедії в деяких випадках вирішували знизити надійність певних новинних сайтів, таких як CNET. Ці новинні сайти минулого року публікували новинні статті, повні помилок – це як прямий результат неправильного використання штучного інтелекту для написання цих статей.

 

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися