Неділя, 22 Грудня, 2024

Штучний інтелект: як уникнути расистських алгоритмів

Спробуйте забити в будь-який пошуковик запит на картинку «руки» або «немовлята», і в більшості випадків ви знайдете зображення білих рук і білих немовлят. Стандартні алгоритми визначають у нашому житті дуже багато – від того, що ми бачимо при пошуку в інтернеті, до того, наскільки великі наші шанси стати жертвою або організатором злочину. Проте останнім часом все більше виникає побоювань з приводу того, що ці алгоритми нерідко можуть давати збій, оскільки вони розроблялися за спрощеною схемою і не враховують цілі групи людей. Це може призвести до того, що прийняті за нас рішення будуть упередженими.

У 2015 році графічний дизайнер Йоханна Бурай створила проект під назвою World White Web project. Зробила вона це після того, як виявила, що на її запит «руки» Google видавав виключно зображення рук білих людей. Її сайт пропонує альтернативні зображення рук, які можуть бути використані у створенні онлайн-контенту, щоб таким чином відновити баланс.

Представники Google говорять, що результати пошуку в їхньому пошуковику відображають вміст всієї мережі, разом із частотою, з якою з’являються певні типи зображень, й описом цих картинок онлайн, і ніяк не пов’язані із цінностями компанії.

Бурай, яка більше не оновлює свій сайт, вважає, що з часу створення проекту ситуація в цілому покращилася. «Мені здається, стає краще… Люди усвідомлюють наявність цієї проблеми. Коли я починала свій проект, люди були шоковані. Зараз у цьому питанні більше обізнаності», – говорить вона.

Ще один подібний сайт, Algorithmic Justice League, створила аспірантка Массачусетського технологічного інституту Джой Буоламвіні в листопаді 2016 року. Для одного з університетських проектів їй потрібно було скористатися програмою автоматичного розпізнавання осіб, але система не змогла розпізнати її обличчя, оскільки Буоламвіні темношкіра.

«У мене дуже темна шкіра, і я виявила, що коли одягала білу маску, це істотно полегшувало роботу системі. Таким чином я фактично приводила своє обличчя до стандартної моделі, яку комп’ютер міг з легкістю обробити», – розповідає вона.

Це був уже не перший раз, коли аспірантці довелося зіткнутися з подібною проблемою. П’ять років тому їй довелося просити про допомогу свою більш світлошкіру сусідку по кімнаті. «У мене були змішані почуття. Тому що я зрозуміла, що проблема, з якою я зіткнулася п’ять років тому, нікуди не зникла. І я була вражена, наскільки добре працює трюк з білою маскою», – говорить Буоламвіні.

Реакція на її сайт, за словами самої аспірантки, була приголомшливою. Їй писали вчителі, які хотіли показати її роботу своїм студентам, дослідники, які хотіли перевірити власні алгоритми на предмет упередженості, і просто обивателі, які хотіли поділитися своїм досвідом. Один дослідник хотів переконатися, що його алгоритм, створений для розпізнавання меланоми (раку шкіри), буде працювати і на темношкірих пацієнтах.

«Я ось тепер думаю – чи перевіряємо ми нові алгоритми і налаштовуємо їх таким чином, щоб вони працювали, наприклад, на літніх людях, які теж не надто широко представлені в технологічному просторі? – задається питанням Буоламвіні. – Ми робимо те саме для людей, які страждають на ожиріння та які стикалися з цією проблемою? Загалом це знаходить відгук серед різних груп».

Технологія дискримінації

Буоламвіні вважає, що люди стали задаватися подібними питаннями ще й тому, що відсутність расового, вікового та іншого соціокультурного різноманіття в технологічній індустрії добре задокументована. Щороку великі технологічні компанії випускають доповіді про різні групи серед працівників.

Ось як виглядають цифри різних компаній за 2016 рік:

  • Google: лише 19% технічного складу компанії – жінки, тільки 1% з них – темношкірі;
  • Microsoft: 17,5% технічного складу компанії – жінки, лише 2,7% з них – темношкірі або афроамериканці;
  • Facebook: 17% технічного складу компанії, який знаходиться в США, – жінки, тільки 1% з них – темношкірі.

«Якщо ви тестуєте свою систему виключно на людях, які схожі на вас, і все чудово працює, то ви ніяк не зможете дізнатися, що у вашій системі може бути проблема», – пояснює Джой Буоламвіні.

Упереджені стандарти краси

Минулого року в інтернеті провели конкурс краси, в журі якого були тільки роботи. Переможців і переможниць обирали за допомогою алгоритмів з більш ніж 6 тисяч селфі, надісланих на конкурс зі 100 різних країн. У загальній складності лауреатами стали 44 людини – тільки одна з них була чорношкірою, а ще шестеро мали азіатську зовнішність.

Алекс Жайворонків, науковий керівник відповідальної за конкурс компанії Beauty.AI, в інтерв’ю британській газеті Guardian визнав, що результати виявилися не без вад, тому що бази даних, на основі яких був створений алгоритм, не відрізнялися різноманітністю. «Якщо в цих базах даних немає достатньої кількості людей з різним кольором шкіри, це може призвести до упередженого результату», – сказав Жайворонків.

Але одна справа конкурс краси, і зовсім інша – злочини. У США використовується програмне забезпечення, завдання якого – визначити, наскільки засуджений злочинець схильний до рецидиву. Дослідження, проведене відомим сайтом журналістських розслідувань ProPublica, показало, що програма нерідко помиляється, завищуючи ризик рецидиву з боку темношкірих і занижуючи – з боку білих ув’язнених. Утім, розробники цього програмного забезпечення не погодилися з висновками журналістів.

На думку доцента Університету Юти Суреша Венкатасубраманьяна, творці штучного інтелекту повинні вживати якихось заходів для виправлення ситуації прямо зараз, поки ця проблема ще помітна. «Найгірший варіант розвитку подій – це якщо відбудуться якісь зміни, а ми їх навіть не усвідомимо», – каже він. – Іншими словами, небезпека полягає в тому, що упередженість у прийнятті рішень перейде зі сфери людських забобонів, які ми можемо розпізнати і скоригувати, у щось, що ми вже не будемо помічати, а отже, не зможемо і виправити, просто тому, що будемо приймати на віру рішення, прийняті алгоритмами».

І все-таки в цілому щодо технологічного прогресу Венкатасубраманьян налаштований оптимістично. «Говорити про те, що всі алгоритми расистські, безглуздо, – пояснює учений. – Не тому, що це неможливо, а просто тому, що цей механізм працює зовсім по-іншому».

Він пропонує кілька рішень цієї проблеми:

  • створення більш досконалого і різноманітного обсягу даних для навчання алгоритмів (їх навчають у процесі обробки тисяч різних зразків – наприклад, зображень);
  • широке поширення найбільш успішних методів, знань і навичок серед продавців програмного забезпечення;
  • створення таких алгоритмів, які б пояснювали, як і на основі якої інформації вони приймають рішення, щоб можна було виявити будь-яку упередженість.

Випускниця Массачусетського технологічного інституту Джой Буоламвіні теж сподівається, що ситуація все-таки зміниться на краще. «Будь-яка технологія, яку ми створюємо, буде відображати як наші устремління, так і межі наших можливостей, – переконана вона. – І якщо ми будемо обмежені з точки зору різноманітності баз даних, це неодмінно позначиться і на роботах, які ми створюємо, і на технологіях, за допомогою яких працюють ці роботи».

За матеріалами: BBC

Євген
Євген
Євген пише для TechToday з 2012 року. Інженер за освітою. Захоплюється реставрацією старих автомобілів.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися