Штучний інтелект в поліції, медицині та рекламі може бути небезпечним – попереджують європейські правозахисники

Експерти також закликають проводити більше досліджень, щоб з’ясувати потенційно дискримінаційні ефекти від масового використання штучного інтелекту.

Штучний інтелект використовується дедалі більше і його можливостями все частіше зловживають. Правозахисники хвилюються про порушення фундаментальних прав людини та приватності з поширенням таких технологій. Агентство фундаментальних прав (Agency for Fundamental Rights, FRA) закликало політиків розробили правила, які б забезпечили захист фундаментальних прав людини.

Один з прикладів зловживання штучним інтелектом можуть надати авторитарні режими. Вони використовують технологію для масового та дискримінаційного стеження за населенням. Навіть мільярдера можуть забанити.

«Штучний інтелект не безгрішний, його роблять люди, а люди роблять помилки. Тому потрібно знати коли використовується штучний інтелект, як він працює та як боротися з автоматизованими рішеннями», – каже директор агентства Майкл О’Флаерті.

Підписуйтесь на наш Telegram.

На думку експертів, правила використання штучного інтелекту повинні поважати всі фундаментальні права та мати запобіжники, які забезпечуватимуть це. Також вони повинні включати гарантії того, що люди можуть оскаржувати прийняті алгоритмами рішення. Ще компанії повинні бути зобов’язані пояснювати як їхні системи приймають рішення.

Експерти також закликають проводити більше досліджень, щоб з’ясувати потенційно дискримінаційні ефекти від масового використання штучного інтелекту.

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я