Вторник, 30 апреля, 2024

Им платят за обучение искусственному интеллекту, а они передают свою работу искусственному интеллекту

Основа искусственного интеллекта — это тысячи малоквалифицированных людей, которые тысячи малоквалифицированных людей, которые как муравьи обрабатывают каждую единицу информации вручную, правильно обозначая ее для искусственного интеллекта. Это скучная, опасная и малооплачиваемая работа. И новое исследование показало, что значительная часть людей, которым платят за обучение искусственному интеллекту, передают эту работу искусственному интеллекту. Для людей это хороший выход, но современный тупой искусственный интеллект так становится еще тупее.

Команда исследователей из Швейцарского федерального технологического института (EPFL) наняла 44 человека на платформе Amazon Mechanical Turk для обобщения 16 подъемников из медицинских научных статей. Затем они проанализировали свои ответы с помощью модели искусственного интеллекта, которую они сами научили, ищущей контрольные сигналы исходных данных ChatGPT, например отсутствие разнообразия в выборе слов. Они также записали нажатие клавиш работников, чтобы определить, скопировали ли они и вставили свои ответы, что свидетельствует о том, что они генерировали свои ответы в другом месте.

Ученые подсчитали, что от 33% до 46% работников использовали такие модели искусственного интеллекта, как ChatGPT OpenAI. Этот процент, вероятно, вырастет еще выше, поскольку ChatGPT и другие системы искусственного интеллекта станут более мощными и легкодоступными, по словам авторов исследования.

«Я не думаю, что это конец краудсорсинговых платформ. Это просто меняет динамику», – говорит Роберт Вест, доцент EPFL, который является соавтором исследования.

Использование данных, сгенерированных искусственным интеллектом, для обучения искусственному интеллекту может внести новые ошибки в и без того подверженные ошибкам модели искусственного интеллекта. Большие языковые модели регулярно представляют ложную информацию как факт. Если они генерируют неправильные результаты, которые сами используются для обучения другим моделям искусственного интеллекта, ошибки могут усугубляться со временем, что усложняет определение их происхождения, говорит Илья Шумайлов, младший научный сотрудник компьютерной науки в Оксфордском университете, не участвовавший в проекте.

Простого решения проблемы нет. «Проблема в том, что когда вы используете искусственные данные, вы получаете ошибки из-за неправильного понимания моделей и статистических ошибок, — говорит он. – Вам нужно убедиться, что ваши ошибки не влияют на результат других моделей, и нет простого способа сделать это».

Исследование подчеркивает необходимость новых способов проверки того, были ли данные созданы людьми или искусственным интеллектом. Это также подчеркивает одну из проблем, связанных с тенденцией технологических компаний полагаться на малооплачиваемых и малоквалифицированных сотрудников для выполнения жизненно важной работы по упорядочению данных, передаваемых в системы искусственного интеллекта.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися