Все больше технологий опираются для безопасности на алгоритмы распознавания лиц. Однако исследователи из M. I. T. Media Lab установили, что эти решения носят расистский характер. Ведь почти идеальный результат алгоритмы распознавания показывают, только когда перед камерой стоит человек с белой кожей.
Для мужчин-европеоидов точность распознавания составляет около 99%. С потемнением кожи, а также сменой пола алгоритмы начинают ошибаться – до 35% для женщин с темной кожей, подсчитал автор исследования Джой Буоламвіні. Он показал, что компьютерное зрение очень зависит от цвета:
- алгоритмы распознавания лиц от Microsoft, IBM и Face++ чаще ошибались относительно пола, если его надо было указать для темнокожих женщин;
- ошибка для набора из 385 фотографий светлокожих мужчин составила лишь 1%;
- пол светлокожих женщин неправильно определили в 7% случаев в наборе из 296 фото;
- для темнокожих мужчин алгоритмы ошиблись с полом в 13% случаев для 318 фото;
- для темнокожих женщин пол неправильно определили в 35% случаев в наборе из 271 фото.
Эксперты объясняют такие расистские наклонности алгоритмов доступным набором данных. Ведь перед «боевым» запуском искусственного интеллекта его тренируют на больших объемах данных. Если система получает значительно больше фотографий белых мужчин, чем чернокожих женщин, она будет делать больше ошибок для последних.
Один из популярных наборов фотографий, доступных для тренировки искусственного интеллекта, содержит более 75% фото мужчин. Также на 80% представленных снимков люди со светлой кожей.
«Сейчас правильное время обратить внимание на то, как работают эти системы искусственного интеллекта и где они работают неправильно, – говорит профессор компьютерных наук Университета Юты Суреш Венкатасубраманиан. – Это позволит сделать их социально надежными».
С системами компьютерного видения уже случались забавные случаи из-за цвета кожи. В 2015 году, например, Google пришлось извиняться после того, как ее приложение по распознаванию фото назвало чернокожего гориллой.