Штучний інтелект (ШІ) приймає важливі рішення, які впливають на наше повсякденне життя. Технології ШІ впроваджуються компаніями та установами в ім’я ефективності. Алгоритми ШІ можуть визначати, хто потрапляє до університету, отримує роботу, отримує медичну допомогу чи державну підтримку.
Коли ШІ бере на себе ці ролі, зростає ризик несправедливих рішень – або сприйняття таких рішень тими, кого вони стосуються. Наприклад, у вступі до коледжу чи при прийомі на роботу ці автоматизовані рішення можуть надавати перевагу певним групам людей або тим, хто має певне походження, ставлячи кваліфікацію та знання в кінці списку пріоритетів.
Або ж, коли ШІ використовується урядами у системах соціальної підтримки, він може розподіляти ресурси таким чином, що погіршує соціальну нерівність, залишаючи деяких людей із меншим, ніж вони заслуговують, і викликаючи відчуття несправедливого ставлення.
Міжнародна команда експертів досліджувала, як несправедливий розподіл ресурсів – незалежно від того, чи його здійснює ШІ, чи людина – впливає на готовність людей діяти проти несправедливості. Результати були опубліковані у журналі Cognition.
Оскільки ШІ дедалі більш інтегрується у повсякденне життя, уряди вживають заходів для захисту громадян від упереджених або непрозорих систем ШІ. Прикладами таких зусиль є “Білль про права ШІ” Білого дому та “Акт про ШІ” Європейського парламенту. Вони відображають спільне занепокоєння: люди можуть відчувати себе скривдженими рішеннями ШІ.
Отже, як досвід несправедливості від системи ШІ впливає на те, як люди ставляться один до одного пізніше?
Байдужість, спричинена ШІ
Стаття у Cognition досліджувала готовність людей діяти проти несправедливості після того, як вони зазнали несправедливого ставлення з боку ШІ. Дослідники вивчали поведінку у подальших, не пов’язаних між собою взаємодіях цих людей. Готовність діяти у таких ситуаціях, яку часто називають “просоціальним покаранням”, вважається важливою для підтримання соціальних норм.
Наприклад, викривачі можуть повідомляти про неетичну практику, незважаючи на ризики, або споживачі можуть бойкотувати компанії, які, на їхню думку, діють шкідливо. Люди, які здійснюють такі акти просоціального покарання, часто роблять це, щоб боротися з несправедливістю, яка зачіпає інших, і таким чином допомагають підтримувати соціальні норми.
Експерти поставили таке питання: чи може досвід несправедливості з боку ШІ, а не людини, вплинути на готовність людей протистояти людським кривдникам пізніше? Наприклад, якщо ШІ несправедливо розподіляє зміну або відмовляє у пільгах, чи зробить це людей менш схильними повідомляти про неетичну поведінку колеги?
У серії експериментів виявили, що люди, до яких несправедливо ставився ШІ, менш схильні карати людських кривдників у подальшому, ніж ті, хто зазнав несправедливого ставлення з боку людини. Вони демонстрували свого роду десенсибілізацію до поганої поведінки інших.
Цей ефект байдужості, спричиненої ШІ, підкреслює ідею, що несправедливе ставлення з боку ШІ може послабити почуття відповідальності перед іншими. Це робить людей менш схильними вирішувати проблеми несправедливості у своїй спільноті.
Причини бездіяльності
Це може бути пов’язано з тим, що люди менше звинувачують ШІ у несправедливому ставленні і, відповідно, відчувають менше бажання боротися з несправедливістю. Цей ефект залишається стабільним навіть тоді, коли учасники стикалися лише з несправедливою поведінкою інших або з поєднанням справедливої та несправедливої поведінки.
Щоб перевірити, чи впливає на цей зв’язок знайомство з ШІ, дослідники повторили експерименти після запуску ChatGPT у 2022 році. Результати залишилися такими ж, як і раніше.
Ці результати свідчать про те, що реакція людей на несправедливість залежить не лише від того, чи ставилися до них справедливо, але й від того, хто ставився до них несправедливо – ШІ чи людина.
Таким чином, несправедливе ставлення з боку системи ШІ може впливати на те, як люди реагують один на одного, роблячи їх менш уважними до несправедливих дій інших. Це підкреслює потенційні наслідки використання ШІ в людському суспільстві, які виходять за рамки особистого досвіду однієї несправедливої ситуації.
Коли системи ШІ діють несправедливо, наслідки поширюються на майбутні взаємодії, впливаючи на те, як люди ставляться один до одного, навіть у ситуаціях, не пов’язаних із ШІ. Розробникам ШІ потрібно зосередитися на мінімізації упередженості у навчальних даних ШІ, щоб запобігти таким важливим побічним ефектам.
Політики також повинні встановити стандарти прозорості, зобов’язуючи компанії розкривати випадки, коли ШІ може приймати несправедливі рішення. Це допомогло б користувачам зрозуміти обмеження систем ШІ і способи оскарження несправедливих результатів. Підвищена обізнаність про ці ефекти також може заохотити людей бути уважними до несправедливості, особливо після взаємодії з ШІ.
Відчуття обурення і звинувачення за несправедливе ставлення є необхідними для виявлення несправедливості та притягнення порушників до відповідальності. Усунувши ненавмисні соціальні наслідки ШІ, лідери можуть забезпечити, щоб ШІ підтримував, а не підривав етичні й соціальні стандарти, необхідні для суспільства, побудованого на справедливості.
За матеріалами: The Next Web