Субота, 12 Жовтня, 2024

Їм платять за навчання штучного інтелекту, а вони передають свою роботу штучному інтелекту

Основа штучного інтелекту – це тисячі малокваліфікованих людей, які наче мурахи обробляють кожну одиницю інформації вручну, правильно позначаючи її для штучного інтелекту. Це нудна, небезпечна та малооплачувана робота. І нове дослідження показало, що значна частина людей, яким платять за навчання штучного інтелекту, передають цю роботу штучному інтелекту. Для людей це гарний вихід, але сучасний тупий штучний інтелект так стає ще тупішим.

Команда дослідників зі Швейцарського федерального технологічного інституту (EPFL) найняла 44 людини на платформі Amazon Mechanical Turk для узагальнення 16 витягів із медичних наукових статей. Потім вони проаналізували свої відповіді за допомогою моделі штучного інтелекту, яку вони самі навчили, яка шукає контрольні сигнали вихідних даних ChatGPT, наприклад відсутність різноманітності у виборі слів. Вони також записали натискання клавіш працівників, щоб визначити, чи вони скопіювали та вставили свої відповіді, що свідчить про те, що вони генерували свої відповіді деінде.

Вчені підрахували, що десь від 33% до 46% працівників використовували такі моделі штучного інтелекту, як ChatGPT OpenAI. Цей відсоток, ймовірно, зросте ще вище, оскільки ChatGPT та інші системи штучного інтелекту стануть потужнішими та легкодоступними, за словами авторів дослідження.

«Я не думаю, що це кінець краудсорсингових платформ. Це просто змінює динаміку», – каже Роберт Вест, доцент EPFL, який є співавтором дослідження.

Використання даних, згенерованих штучним інтелектом, для навчання штучного інтелекту може внести нові помилки в і без того схильні до помилок моделі штучного інтелекту. Великі мовні моделі регулярно представляють неправдиву інформацію як факт. Якщо вони генерують неправильні результати, які самі використовуються для навчання інших моделей штучного інтелекту, помилки можуть посилюватися з часом, що ускладнює визначення їх походження, говорить Ілля Шумайлов, молодший науковий співробітник комп’ютерної науки в Оксфордському університеті, який не брав участі в проекті.

Простого вирішення проблеми немає. «Проблема в тому, що коли ви використовуєте штучні дані, ви отримуєте помилки через неправильне розуміння моделей і статистичні помилки, — каже він. – Вам потрібно переконатися, що ваші помилки не впливають на результат інших моделей, і немає простого способу зробити це».

Дослідження підкреслює необхідність нових способів перевірки того, чи були дані створені людьми чи штучним інтелектом. Це також підкреслює одну з проблем, пов’язаних із тенденцією технологічних компаній покладатися на малооплачуваних і малокваліфікованих співробітників для виконання життєво важливої роботи з упорядкування даних, що передаються в системи штучного інтелекту.

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися