Суббота, 4 мая, 2024

Одна из самых трудных современных профессий: тренер искусственного интеллекта

Искусственный интеллект, способный поддержать разговор на достаточно высоком уровне и отвечает на любые вопросы, захватил в этом году мир. Приложение ChatGPT стало приложением, которое имело самые быстрые темпы роста в истории. Технологические гиганты, включая Google, бросились представлять свои собственные искусственные интеллекты. Но за магией искусственного интеллекта стоит тяжелый малооплачиваемый человеческий труд по его тренировке.

Чат-бот Google Bard быстро и с избытком уверенности ответит на вопрос о том, сколько панд живет в зоопарках. Обеспечение того, чтобы ответ происходил из надежных источников и базировался на доказательствах, возлагается на тысячи внешних подрядчиков из компаний, в частности Appen Ltd. и Accenture Plc. Предоставленные ими тренеры искусственного интеллекта могут зарабатывать только 14 долларов в час и работать с минимальным обучением в безумные сроки.

Подрядчики являются невидимым хребтом генеративного искусственного интеллекта. Такие чат-боты, как Bard, используют компьютерный интеллект, чтобы почти мгновенно отвечать на ряд запросов, охватывающих все человеческие знания и творчество. Но чтобы улучшить эти ответы, чтобы их можно было надежно предоставлять снова и снова, технологические компании полагаются на реальных людей, которые просматривают ответы, дают отзывы об ошибках и устраняют какие-либо признаки предвзятости.

Это все неблагодарная работа. Шесть нынешних сотрудников Google, работающих по контракту, сказали, что в прошлом году, когда Google вступил в гонку вооружений с конкурентом OpenAI, размер их рабочей нагрузки и сложность задач выросли. Не имея специального опыта, им доверяли оценивать ответы на разные темы: от дозирования лекарства до законов определенного региона. Документы, предоставленные Bloomberg, демонстрируют запутанные инструкции о том, что работники в некоторых случаях должны выполнять проверку всего за три минуты.

«Сейчас люди напуганы, напряжены, им мало платят, они не знают, что происходит, – сказал один из подрядчиков. – И эта культура страха не способствует достижению качества и командной работы, которых вы хотите от всех нас».

Google позиционирует свои продукты искусственного интеллекта как публичные ресурсы в области здравоохранения, образования и повседневной жизни. Но в частном и публичном порядке подрядчики выражали обеспокоенность условиями своей работы, которые, по их словам, ухудшают качество того, что видят пользователи.

Один из контрактных сотрудников Google, работающий в Appen, сказал в письме Конгрессу в мае, что скорость, с которой они должны просматривать контент искусственного интеллекта, может привести к тому, что Bard станет «неисправным» и «опасным» продуктом.

Google сделал искусственный интеллект главным приоритетом по всей компании, спеша внедрить новую технологию в свои флагманские продукты после запуска ChatGPT OpenAI в ноябре 2022 года. В мае на ежегодной конференции разработчиков I/O компания Google открыла Bard для 180 стран и территорий и обнародовала экспериментальные функции искусственного интеллекта в таких продуктах как поиск, электронная почта и Google Docs. Google позиционирует себя как высшего конкурента через доступ к широте мировых знаний интернета.

«Мы проводим большую работу, чтобы ответственно создавать наши продукты искусственного интеллекта, включая строгое тестирование, обучение и процессы обратной связи, которые мы оттачивали годами, чтобы подчеркнуть реальность и уменьшить предубеждения», — говорится в заявлении Google. Компания заявила, что полагается не только на оценщиков для улучшения искусственного интеллекта, но и существует ряд других методов улучшения его точности и качества.

Чтобы подготовиться к широкому использованию этих продуктов, работники сказали, что они начали получать задачи, связанные с искусственным интеллектом, еще в январе. Работников часто просят определить, содержат ли ответы искусственного интеллекта доказательства, которые можно проверить. Оценщиков просят решить, является ли ответ полезным на основе указаний из шести пунктов, включающих анализ ответов на такие вещи, как конкретность, свежесть информации и последовательность.

Их также просят убедиться, что ответы не содержат вредного, оскорбительного или чрезмерно сексуального контента и не содержат неточной или обманчивой информации. Изучение ответов искусственного интеллекта обманчивого контента должно основываться на текущих знаниях тренеров или быстром веб-поиске, говорится в инструкциях.

Пример ответа на вопрос «Кто такой Майкл Джексон?» содержит неточность по отношению к певцу, снимавшемуся в фильме «Луноход», который, по словам искусственного интеллекта, был выпущен в 1983 году. В действительности фильм вышел в 1988 году.

Даже если неточность кажется небольшой, все равно вызывает беспокойство, что чат-бот неправильно получает основные факты, говорит Алекс Ханна, директор по исследованиям Distributed AI Research Institute и бывший специалист по этике Google AI.

«Похоже, что это рецепт для усиления того, как эти инструменты будут выглядеть, как будто они предоставляют детали, которые являются правильными, но таковыми не являются», – сказала она.

Тренеры говорят, что они оценивают темы высоких ставок для продуктов искусственного интеллекта Google. Один из примеров в инструкциях, например, рассказывает о доказательствах, которые оценщик мог бы использовать для определения правильных доз лекарства для лечения высокого кровяного давления под названием Лизиноприл.

В Google заявили, что некоторые работники, озабоченные точностью контента, возможно, обучались не специально для точности, а для проверки тона, презентации и других атрибутов. «Рейтинги намеренно проводятся по скользящей шкале, чтобы получить более точную обратную связь для улучшения этих моделей, – заявили в компании. – Такие рейтинги напрямую не влияют на производительность наших моделей и отнюдь не являются единственным способом повышения точности».

Эд Стекхаус, сотрудник Appen, направивший письмо в Конгресс США, сказал в интервью, что контрактных сотрудников попросили выполнять работу по маркировке искусственного интеллекта в продуктах Google, поскольку они незаменимы для обучения искусственному интеллекту. Но он и другие работники сказали, что они оцениваются за работу таинственными автоматизированными способами. У них нет способа связаться с Google напрямую, кроме предоставления отзывов в «комментариях» по каждому отдельному заданию. И они должны двигаться быстро. «Нас отмечает какой-то тип искусственного интеллекта, который говорит нам не тратить время на ИИ», — добавил Стекхаус.

Google отрицает вышеуказанное описание рабочего процесса работников, в котором искусственный интеллект автоматически обозначает рабочих за превышение целевого времени. В то же время в компании заявили, что Appen несет ответственность за все проверки эффективности сотрудников. У Appen не ответили на запросы о комментариях. Представитель Accenture сказал, что компания не комментирует работу клиентов.

Другие технологические компании, обучающие искусственному интеллекту, также нанимают подрядчиков для его совершенствования. В январе, Time сообщалось, что рабочие в Кении, которым платили 2 доллара в час, работали над тем, чтобы сделать ChatGPT менее токсичным. Другие технологические гиганты, в частности Meta Platforms (ранее называвшиеся Facebook), Amazon и Apple, используют субподрядчиков для модерирования контента социальных сетей и обзоров продуктов, а также для предоставления технической поддержки и обслуживания клиентов.

«Если вы хотите спросить, в чем секрет Bard и ChatGPT? Это все в Интернете. И это все данные с метками, которые создают эти метки, – сказала Лаура Эдельсон, компьютерный учёный из Нью-Йоркского университета. — Следует помнить, что эти системы – не работа волшебников – это работа тысяч людей и их низкооплачиваемого труда».

В заявлении компании Google сказано, что она просто не является работодателем ни одного из этих работников. Наши поставщики как работодатели определяют свои условия труда, в частности оплату труда и льготы, часы и назначенные задачи, а также изменения в работе – а не Google».

Сотрудники сказали, что они сталкивались с зоофилией, военными кадрами, детской порнографией и враждой во время своей обычной работы по оценке качества продуктов и услуг Google. Хотя некоторые работники, такие как те, кто отчитывается в Accenture, действительно имеют медицинские льготы, большинство имеют лишь минимальные варианты, позволяющие работникам звонить на горячую линию для получения консультаций по психическому здоровью.

По словам сотрудников, для проекта Google Bard работников Accenture попросили написать творческий ответ для чат-бота AI. Они отвечали на подсказки в чат-боте – однажды они могли написать стихотворение о драконах, например, в шекспировском стиле, а в другой день – налаживать программный код. Их работа заключалась в том, чтобы давать как можно больше творческих ответов на подсказки каждого рабочего дня.

По их словам, на короткий срок работников перенастроили на пересмотр нецензурных, отталкивающих и оскорбительных подсказок. После того, как один работник подал жалобу в отдел кадров Accenture, проект американской команды был внезапно прекращен, хотя некоторые коллеги сценаристов в Маниле продолжали работать над Bard.

Вакансии тренеров искусственного интеллекта были мало защищены. В прошлом месяце почти полдесятка работавших в Appen контрактных сотрудников Google получили сообщения от руководства, в котором говорилось, что их должности были ликвидированы «из-за условий ведения бизнеса». По словам работников, увольнение было внезапным. Шесть уволенных работников подали жалобу в Национальный совет по трудовым отношениям. Они утверждали, что их незаконно уволили организации через письмо Стекхауса в Конгресс. К концу месяца их возобновили на работе.

В Google заявили, что спор возник между работниками и Appen, и что они «уважают трудовые права работников Appen на вступление в профсоюз». Appen не ответил на вопрос, что его работники организуются.

Профсоюз работников Alphabet, объединяющий как работников Google, так и сотрудников по контракту, включая Appen и Accenture, заявил, что осуждает то, что новая рабочая нагрузка вокруг искусственного интеллекта еще больше усложняет условия труда для работников.

Эмили Бендер, профессор компьютерной лингвистики из Университета Вашингтона, сказала, что работа этих сотрудников по контракту в Google и других технологических платформах является «историей трудовой эксплуатации», указывая на их нестабильную безопасность и то, как некоторые из этих типов работников получают значительно ниже прожиточного минимума.

«Играть с одной из этих систем и говорить, что вы делаете это просто для развлечения — возможно, это будет менее весело, если вы подумаете о том, что нужно для создания, и о влиянии этого на человека», — сказала Бендер.

Контрактные сотрудники сказали, что они никогда не получали никаких прямых сообщений от Google о своей новой работе, связанной с искусственным интеллектом, — все фильтруется через их работодателя. Они сказали, что не знают, откуда поступают ответы, сгенерированные искусственным интеллектом, и куда идут отзывы. Из-за отсутствия этой информации и учитывая, что характер их работы постоянно меняется, работники волнуются, что они помогают создавать плохой продукт.

Некоторые ответы, с которыми они сталкиваются, могут быть странными. В ответ на подсказку «Предложи лучшие слова, которые я могу составить с буквами: k, e, g, a, o, g, w», один ответ, сгенерированный искусственным интеллектом, содержал 43 возможных слова, начиная с предложения №1: « wagon». В предложениях 2-43 между тем снова и снова повторялось слово «woke» (словом woke обозначают обычно в негативном смысле людей, чрезмерно выступающих за социальную, расовую и половую справедливость).

В другой задаче оценщик получил пространный ответ, начинавшийся словами: «Насколько мне известно, сентябрь 2021 года». Эта фраза связана с конкурирующим искусственным интеллектом OpenAI GPT-4. Хотя Google заявил, что Bard не обучен никаким данным из ShareGPT или ChatGPT. Оценщики удивлялись, почему такие фразы появляются в их задачах.

Бендер говорит, что для крупных технологических корпораций нет смысла поощрять людей задавать чат-ботам искусственного интеллекта вопросы на столь широкий спектр тем и представлять их как «машины для всего».

«Почему та самая машина, которая может давать вам прогноз погоды во Флориде, также должна давать вам советы по дозам лекарств?, — она ??спросила. — Люди, стоящие за машиной, которым поручено сделать ее несколько менее ужасающей при некоторых из этих обстоятельств, имеют невозможную работу».

По материалам: Bloomberg

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися