Попробуйте забить в любой поисковик запрос на картинку «руки» или «младенцы», и в большинстве случаев вы найдете изображения белых рук и белых младенцев. Стандартные алгоритмы определяют в нашей жизни очень много – от того, что мы видим при поиске в интернете, до того, насколько велики наши шансы стать жертвой или организатором преступления. Однако в последнее время все больше возникает опасений по поводу того, что эти алгоритмы нередко могут давать сбой, так как они разрабатывались по упрощенной схеме и не учитывают целые группы людей. Это может привести к тому, что принятые за нас решения будут предвзятыми.
В 2015 году графический дизайнер Йоханна Бурай создала проект под названием World White Web project. Сделала она это после того, как обнаружила, что на ее запрос «руки» Google выдавал исключительно изображение рук белых людей. Ее сайт предлагает альтернативные изображения рук, которые могут быть использованы при создании онлайн-контента, чтобы таким образом восстановить баланс.
Представители Google говорят, что результаты поиска в их поисковике отражают содержание всей сети, включая частоту, с которой появляются определенные типы изображений, и описания этих картинок онлайн, и никак не связаны с ценностями компании.
Бурай, которая больше не обновляет свой сайт, считает, что со времени создания проекта ситуация в целом улучшилась. «Мне кажется, становится лучше… Люди осознают наличие этой проблемы. Когда я начинала свой проект, люди были шокированы. Сейчас в этом вопросе больше осведомленности», – говорит она.
Еще один подобный сайт, Algorithmic Justice League, создала аспирантка Массачусетского технологического института Джой Буоламвини в ноябре 2016 года. Для одного из университетских проектов ей нужно было воспользоваться программой автоматического распознавания лиц, но система не смогла распознать ее лицо, так как Буоламвини темнокожая.
«У меня очень темная кожа, и я обнаружила, что когда надевала белую маску, это существенно облегчало работу системе. Таким образом я фактически приводила свое лицо к стандартной модели, которую компьютер мог с легкостью обработать», – рассказывает она.
Это был уже не первый раз, когда аспирантке пришлось столкнуться с подобной проблемой. Пять лет назад ей пришлось просить о помощи свою более светлокожую соседку по комнате. «У меня были смешанные чувства. Потому что я поняла, что проблема, с которой я столкнулась пять лет назад, никуда не исчезла. И я была поражена, насколько хорошо работает трюк с белой маской», – говорит Буоламвини.
Реакция на ее сайт, по словам самой аспирантки, была потрясающей. Ей писали учителя, которые хотели показать ее работу своим студентам, исследователи, которые хотели проверить свои алгоритмы на предмет предвзятости, и просто обыватели, которые хотели поделиться своим опытом. Один исследователь хотел убедиться, что его алгоритм, созданный для распознавания меланомы (рака кожи), будет работать и на темнокожих пациентах.
«Я вот теперь думаю: мы проверяем новые алгоритмы и настраиваем их таким образом, чтобы они работали, например, на пожилых людях, которые тоже не слишком широко представлены в технологическом пространстве? – задается вопросом Буоламвини. – Мы делаем то же самое для людей, которые страдают ожирением и которые сталкивались с этой проблемой? В общем, это находит отклик среди разных групп».
Технология дискриминации
Буоламвини считает, что люди стали задаваться подобными вопросами еще и потому, что отсутствие расового, возрастного и другого социокультурного многообразия в технологической индустрии хорошо задокументировано. Ежегодно крупные технологические компании выпускают доклады о различные группы среди работников.
Вот как выглядят цифры разных компаний за 2016 год:
- Google: только 19% технического состава компании – женщины, только 1% из них – темнокожие.
- Microsoft: 17,5% технического состава компании – женщины, лишь 2,7% из них – темнокожие или афроамериканцы;
- Facebook: 17% находящегося в США технического состава компании – женщины, только 1% из них – темнокожие.
«Если вы тестируете свою систему исключительно на людях, которые похожи на вас, и все прекрасно работает, то вы никак не сможете узнать, что в вашей системе может быть проблема», – объясняет Джой Буоламвини.
Предвзятые стандарты красоты
В прошлом году в интернете провели конкурс красоты, в жюри которого были только работы. Победителей и победительниц выбирали с помощью алгоритмов из более чем 6 тысяч селфи, присланных на конкурс из 100 различных стран. В общей сложности лауреатами стали 44 человека – только одна из них была чернокожей, а еще шестеро имели азиатскую внешность.
Алекс Жаворонкив, научный руководитель ответственной за конкурс компании Beauty.AI, в интервью британской газете Guardian признал, что результаты оказались не без изъянов, потому что базы данных, на основе которых был создан алгоритм, не отличались разнообразием. «Если в этих базах данных нет достаточного количества людей с разным цветом кожи, это может привести к предвзятому результату», – сказал Жаворонкив.
Но одно дело конкурс красоты, и совсем другое – преступления. В США используется программное обеспечение, задача которого – определить, насколько осужденный преступник склонен к рецидиву. Исследование, проведенное известным сайтом журналистских расследований ProPublica, показало, что программа нередко ошибается, завышая риск рецидива со стороны темнокожих и занижая – со стороны белых заключенных. Впрочем, разработчики этого программного обеспечения не согласились с выводами журналистов.
По мнению доцента Университета Юты Суреша Венкатасубраманьяна, создатели искусственного интеллекта должны принимать какие-то меры для исправления ситуации прямо сейчас, пока эта проблема еще заметна. «Худший вариант развития событий – это если произойдут какие-то изменения, а мы их даже не осознаем», – говорит он. – Иными словами, опасность состоит в том, что предвзятость в принятии решений перейдет из сферы человеческих предрассудков, которые мы можем распознать и скорректировать, в то, что мы уже не будем замечать, а значит, не сможем и исправить, просто потому, что будем принимать на веру решения, принятые алгоритмами».
И все-таки в целом относительно технологического прогресса Венкатасубраманьян настроен оптимистично. «Говорить о том, что все алгоритмы расистские, – бессмысленно, – объясняет ученый. – Не потому, что это невозможно, а просто потому, что этот механизм работает совсем по-другому».
Он предлагает несколько решений этой проблемы:
- создание более совершенного и разнообразного объема данных для обучения алгоритмов (их обучают в процессе обработки тысяч различных образцов – например, изображений);
- широкое распространение наиболее успешных методов, знаний и навыков среди продавцов программного обеспечения;
- создание таких алгоритмов, которые бы объясняли, как и на основе какой информации они принимают решение, чтобы можно было выявить любую предвзятость.
Выпускница Массачусетского технологического института Джой Буоламвини тоже надеется, что ситуация все-таки изменится к лучшему. «Любая технология, которую мы создаем, будет отражать как наши устремления, так и пределы наших возможностей, – убеждена она. – И если мы будем ограничены с точки зрения разнообразия баз данных, это непременно скажется и на работах, которые мы создаем, и на технологии, с помощью которых работают эти работы».
По материалам: BBC