Суббота, 21 июня, 2025

Несправедливые решения искусственного интеллекта могут сделать нас равнодушными к плохому поведению людей

Искусственный интеллект (ШИ) принимает важные решения, влияющие на нашу повседневную жизнь. Технологии ИИ внедряются компаниями и учреждениями во имя эффективности. Алгоритмы ИИ могут определять, кто попадает в университет, получает работу, получает медицинскую помощь или государственную поддержку.

Когда ИИ берет на себя эти роли, возрастает риск несправедливых решений или восприятие таких решений теми, кого они касаются. Например, при поступлении в колледж или при приеме на работу эти автоматизированные решения могут отдавать предпочтение определенным группам людей или имеющим определенное происхождение, ставя квалификацию и знания в конце списка приоритетов.

Или, когда ИИ используется правительствами в системах социальной поддержки, он может распределять ресурсы таким образом, что ухудшает социальное неравенство, оставляя некоторых людей с меньшим, чем они заслуживают, и вызывая ощущение несправедливого отношения.

Международная команда экспертов исследовала, как несправедливое распределение ресурсов – независимо от того, осуществляет ли его ИИ, или человек – влияет на готовность людей действовать против несправедливости. Результаты были опубликованы в журнале Cognition.

Поскольку ИИ все более интегрируется в повседневную жизнь, правительства принимают меры по защите граждан от предвзятых или непрозрачных систем ИИ. Примерами таких усилий являются «Билль о правах ИИ» Белого дома и «Акт о ИИ» Европейского парламента. Они отражают общую обеспокоенность: люди могут чувствовать себя обиженными решениями ИИ.

Итак, как опыт несправедливости от системы ИИ влияет на то, как люди относятся друг к другу позже?

Безразличие, вызванное ИИ

Статья в Cognition исследовала готовность людей действовать против несправедливости после того, как они испытали несправедливое отношение со стороны ИИ. Исследователи изучали поведение в дальнейших, не связанных между собой взаимодействиях этих людей. Готовность действовать в таких ситуациях, которую часто называют «просоциальным наказанием», считается важной для поддержания социальных норм.

К примеру, обличители могут сообщать о неэтической практике, несмотря на риски, или потребители могут бойкотировать компании, которые, по их мнению, действуют вредно. Люди, совершающие такие акты о социальном наказании, часто делают это, чтобы бороться с несправедливостью, затрагивающей других, и таким образом помогают поддерживать социальные нормы.

Эксперты задали такой вопрос: может ли опыт несправедливости со стороны ИИ, а не человека, повлиять на готовность людей противостоять человеческим обидчикам позже? Например, если ИИ несправедливо распределяет изменение или отказывает в льготах, сделает ли это людей менее склонными сообщать о неэтическом поведении коллеги?

В серии экспериментов обнаружили, что люди, к которым несправедливо относился ИИ, менее склонны наказывать человеческих обидчиков в дальнейшем, чем испытавшие несправедливое отношение со стороны человека. Они демонстрировали своего рода десенсибилизацию к плохому поведению других.

Этот эффект безразличия, вызванного ИИ, подчеркивает идею, что несправедливое отношение со стороны ИИ может ослабить чувство ответственности перед другими. Это делает людей менее склонными разрешать проблемы несправедливости в своем сообществе.

Причины бездействия

Это может быть связано с тем, что люди меньше обвиняют ИИ в несправедливом отношении и, соответственно, испытывают меньшее желание бороться с несправедливостью. Этот эффект остается стабильным даже тогда, когда участники сталкивались только с несправедливым поведением других или с сочетанием справедливого и несправедливого поведения.

Чтобы проверить, влияет ли на эту связь знакомство с ИИ, исследователи повторили эксперименты после запуска ChatGPT в 2022 году. Результаты остались такими же, как и раньше.

Эти результаты свидетельствуют о том, что реакция людей на несправедливость зависит не только от того, относились ли к ним справедливо, но и от того, кто относился к ним несправедливо – ИИ или человек.

Таким образом, несправедливое отношение со стороны системы ИИ может влиять на то, как люди реагируют друг на друга, делая их менее внимательными к несправедливым действиям других. Это подчеркивает потенциальные последствия использования ИИ в человеческом обществе, которые выходят за рамки личного опыта одной несправедливой ситуации.

Когда системы ИИ действуют несправедливо, последствия распространяются на будущие взаимодействия, влияя на то, как люди относятся друг к другу, даже в ситуациях, не связанных с ИИ. Разработчикам ИИ нужно сосредоточиться на минимизации предвзятости в учебных данных ИИ, чтобы предотвратить такие важные побочные эффекты.

Политики также должны установить стандарты прозрачности, обязывая компании раскрывать случаи, когда ИИ может принимать несправедливые решения. Это помогло бы пользователям понять ограничение систем ИИ и способы обжалования несправедливых результатов. Повышенная осведомленность об этих эффектах также может привлечь людей к вниманию несправедливости, особенно после взаимодействия с ИИ.

Ощущение возмущения и обвинения за несправедливое отношение необходимы для выявления несправедливости и привлечения нарушителей к ответственности. Устранив непреднамеренные социальные последствия ИИ, лидеры могут обеспечить, чтобы ИИ поддерживал, а не подрывал этические и социальные стандарты, необходимые для общества, построенного на справедливости.

По материалам: The Next Web

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Євген
Євген
Евгений пишет для TechToday с 2012 года. По образованию инженер,. Увлекается реставрацией старых автомобилей.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті