Люди предвзяты по отношению к другим и это имеет реальные последствия. Например, вам может быть отказано в приеме на работу только потому, что вы не тот знак зодиака, который нравится HR. С распространением алгоритмов, принимающих решения, дискриминации стало больше. Власти голландского города Амстердам думали, что смогут сломать десятилетнюю тенденцию внедрения дискриминационных алгоритмов. Но эксперимент провалился, что поднимает вопрос: Могут ли эти программы когда-либо быть справедливыми?

Ханс де Цварт, учитель физкультуры, ставший защитником цифровых прав, говорит, что когда он увидел план Амстердама по внедрению алгоритма оценки каждого претендента на получение социальной помощи в городе на предмет потенциального мошенничества, он чуть не упал со стула.
Был февраль 2023 года, и де Зварт, который занимал пост исполнительного директора Bits of Freedom, ведущей неправительственной организации Нидерландов по защите цифровых прав, почти два года работал неофициальным советником городского правительства Амстердама, анализируя системы искусственного интеллекта, которые оно разрабатывало, и предоставляя отзывы о них.
Согласно документации города, эта конкретная модель искусственного интеллекта, называемая” умной проверкой » (Smart Check), будет рассматривать заявки от потенциальных получателей социального обеспечения и определять, кто, возможно, подал неправильное заявление. По его словам, этот проект выделялся больше, чем любой другой, и не в хорошем смысле этого слова.
«Есть некоторые очень фундаментальные [и] непреодолимые проблемы”, – говорит он, используя этот алгоритм на реальных людях.
Со своего наблюдательного пункта за широкой аркой стеклянных окон в мэрии Амстердама Пол де Конинг, городской консультант, в резюме которого значатся посещения различных агентств социальной помощи голландского государства, с гордостью рассматривал ту же систему. Де Конинг, который руководил пилотным этапом Smart Check, был в восторге от того, что он увидел в потенциале проекта по повышению эффективности и устранению предвзятости в системе социальных выплат Амстердама.
Команда исследователей мошенничества и специалистов по обработке данных потратила годы на разработку Smart Check, и де Конинг считал, что многообещающие ранние результаты оправдали их подход. Город консультировался с экспертами, проводил тесты на предвзятость, реализовал технические меры и запросил обратную связь от людей, которых программа коснется, более или менее следуя всем рекомендациям в руководстве по этическому использованию искусственного интеллекта.
Эти противоположные точки зрения воплощают глобальную дискуссию о том, могут ли алгоритмы когда-либо быть справедливыми при принятии решений, определяющих жизнь людей. За последние несколько лет попыток использовать искусственный интеллект таким образом стало больше примеров сопутствующего ущерба: небелые соискатели были исключены из пула заявлений о приеме на работу в США , семьи были ошибочно указано для расследований жестокого обращения с детьми в Японии, а жителям с низким доходом было отказано в субсидии на питание в Индии.
Сторонники этих систем оценки утверждают, что они могут создавать более эффективные государственные услуги, делая больше с меньшими затратами, и, в частности, в случае систем социального обеспечения, возвращать деньги, которые теряются из государственного кошелька.
На практике многие из систем С самого начала были плохо разработаны. Иногда они учитывают личные характеристики таким образом, что приводят к дискриминации, а иногда их применяют без проверки на предвзятость или эффективность.
В целом, они предлагают людям мало возможностей бросить вызов или даже понять автоматизированные действия, которые напрямую влияют на то, как они живут.
Результатом стали более чем десятилетние скандалы. В ответ законодатели, бюрократы и частный сектор, от Амстердама до Нью-Йорка, от Сеула до Мехико, пытаются придумать что — то, создавая алгоритмические системы, интегрирующие принципы “ответственного ИИ” — подхода, направляющего развитие ИИ на благо общества при минимизации негативных последствий.
Разработка и внедрение этического искусственного интеллекта является главным приоритетом для Европейского союза, и то же самое было верно для США. Системы, основанные на этих принципах, обладают огромной властью принимать решения, например, кого нанимать, когда расследовать случаи потенциального жестокого обращения с детьми и какие жители должны получить услуги в первую очередь.
Амстердам действительно считал, что находится на правильном пути. Городские чиновники из департамента социального обеспечения считали, что они могут создать технологию, которая предотвратит мошенничество и защитит права граждан. они следовали этим новым передовым практикам и вложили огромное количество времени и денег в проект, который в конечном итоге обрабатывал заявки на социальное обеспечение.
Но в своем пилотном проекте они обнаружили, что разработанная ими система все еще не была справедливой и эффективной. Почему?
Lighthouse Reports, MIT Technology Review и голландская газета Trouw получили доступ к системе, чтобы попытаться выяснить это. В ответ на запрос публичных записей город раскрыл несколько версий алгоритма Smart Check и данные о том, как он оценивал реальных претендентов на социальное обеспечение, предлагая уникальную информацию о том, могут ли алгоритмические системы выполнить свои амбициозные обещания при наилучших возможных условиях.
Ответ на этот вопрос далеко не прост. Для де Конинга Smart Check олицетворял технологический прогресс в направлении создания более справедливой и прозрачной системы социального обеспечения. По мнению де Цварта, это представляло собой существенный риск для прав получателей социальных пособий, который не могли исправить никакие технические усовершенствования.
Поскольку этот алгоритмический эксперимент разворачивался в течение нескольких лет, он поставил под сомнение центральную предпосылку проекта: ответственный ИИ может быть чем-то большим, чем воображаемый эксперимент или корпоративная точка продажи, и может действительно сделать алгоритмические системы справедливыми в реальном мире.
Шанс исправить проблемы
Понимание того, как Амстердам оказался вовлеченным в масштабную деятельность по предотвращению мошенничества на основе искусственного интеллекта, требует возвращения на четыре десятилетия назад, к национальному скандалу вокруг расследований по социальному обеспечению, которые зашли слишком далеко.
В 1984 году Альбина Грумбок, разведенная мать-одиночка троих детей, несколько лет получала помощь, когда узнала, что одна из ее соседок, сотрудница местного отделения социальной службы, тайно наблюдала за ее жизнью. Соседка задокументировала визиты друга-мужчины, который теоретически мог приносить семье неучтенный доход. На основании этих наблюдений управление социального обеспечения урезало помощь матери-одиночке. Она обжаловала это решение в суде и выиграла.
Несмотря на личное оправдание Альбины Грумбок, голландская политика социального обеспечения продолжает наделять следователей по мошенничеству, которых иногда называют “счетчиками зубных щеток”, полномочиями переворачивать жизни людей. Это помогло создать атмосферу подозрительности, которая приводит к проблемам для обеих сторон, говорит Марк ван Хоф, юрист, который десятилетиями помогал голландским получателям социальных пособий ориентироваться в системе: “правительство не доверяет своим людям, а люди не доверяют правительству”.
Гарри Бодаар, профессиональный государственный служащий, большую часть этого времени внимательно наблюдал за политикой социального обеспечения Нидерландов — сначала в качестве социального работника, затем в качестве следователя по мошенничеству, а теперь в качестве советника по вопросам политики социального обеспечения в городе.
Последние 30 лет показали ему, что система едва работает и если вы находитесь на дне этой системы, вы первый, кто терпит неудачу.
Улучшение работы системы социальной помощи, добавляет он, было важным мотивирующим фактором, когда город начал разрабатывать Smart Check в 2019 году. «Мы хотели провести честную проверку только тех людей, которых, по нашему мнению, нужно было проверить”, — говорит Бодаар, в отличие от предыдущей политики департамента, которая до 2007 года заключалась в проведении визитов на дом для каждого заявителя.
Но он также знал, что Нидерланды стали чем-то вроде эпицентра проблем с внедрением искусственного интеллекта для социального обеспечения. Попытки правительства Нидерландов модернизировать обнаружение мошенничества с помощью искусственного интеллекта в нескольких печально известных случаях имели неприятные последствия.
В 2019 году выяснилось, что национальное правительство использовало алгоритм для создания профилей рисков, которые, как надеялись власти, помогут обнаружить мошенничество в системе помощи по уходу за ребенком. В результате скандала почти 35 000 родителей, большинство из которых были мигрантами или детьми мигрантов, были ложно обвинены в мошенничестве с получением помощи. Это ввергло семьи в долги, некоторых ввергло в нищету и в конечном итоге привело все правительство к отставке в 2021 году.
В Роттердаме расследование, проведенное Lighthouse Reports в 2023 году в отношении системы обнаружения мошенничества, показало, что она была предвзятой по отношению к женщинам, родителям, лицам, не говорящим по-голландски, и другим уязвимым группам, что в конечном итоге вынудило город приостановить использование системы.
Другие города, такие как Амстердам и Лейден, использовали систему под названием система показателей мошенничества, которая была впервые внедрена более 20 лет назад и включала образование, соседство, отцовство и пол в качестве основных факторов риска для оценки соискателей социального обеспечения; эта программа также была прекращена.
Нидерланды не одиноки. В Соединенных Штатах было зарегистрировано не менее 11 случаев, когда правительства Штатов использовали алгоритмы, помогающие распределять общественные блага, часто с тревожными результатами. Мичиган, например, ложно обвинил 40 000 человек в мошенничестве с безработицей. А во Франции активисты кампании подают в суд на управление национального благосостояния через алгоритм, который, по их утверждению, дискриминирует заявителей с низким доходом и людей с ограниченными возможностями.
Эта серия скандалов, а также растущее осознание того, как дискриминация может быть встроена в алгоритмические системы, способствовали росту внимания к ответственному ИИ.
” Это стало общим термином для обозначения того, что нам нужно думать не только об этике, но и о справедливости», – говорит Цзяхао Чен, консультант по этике в области искусственного интеллекта, который предоставлял аудиторские услуги как частным, так и местным государственным структурам. «Я думаю, что мы наблюдаем осознание того, что нам нужны такие вещи, как прозрачность и конфиденциальность, безопасность и так далее”.
Подход, основанный на сдерживании ущерба, наносимого распространением технологий, привел к появлению отрасли, построенной по знакомой формуле: официальных документов и фреймворков аналитических центров и международных организаций, а также прибыльной индустрии консалтинга, состоящей из традиционных влиятельных игроков, таких как консалтинговые компании Big 5, а также множества стартапов и некоммерческих организаций.
Например, в 2019 году Организация экономического сотрудничества и развития, орган глобальной экономической политики, опубликовала свои принципы искусственного интеллекта в качестве руководства по разработке “заслуживающего доверия ИИ”. Эти принципы включают создание объясненных систем, консультации с заинтересованными сторонами и проведение аудитов.
Но от наследия, оставленного десятилетиями неправомерных действий алгоритмов, оказалось трудно избавиться, и нет единого мнения о том, где провести грань между тем, что справедливо, а что нет.
В то время как Нидерланды работают над внедрением реформ, сформированных ответственным ИИ на национальном уровне, Algorithm Audit, голландская неправительственная организация, предоставляющая услуги аудита этического ИИ правительственным министерствам, пришла к выводу, что технологию следует использовать для профилирования получателей социальных пособий только при строго определенных условиях и только в том случае, если системы избегают учета защищенных характеристик, таких как пол.
Между тем, Amnesty International, борцы за цифровые права, такие как де Зварт, и некоторые сами получатели социальных пособий утверждают, что, когда дело доходит до принятия решений, касающихся жизни людей, государственный сектор вообще не должен использовать искусственный интеллект.
Амстердам надеялся, что был найден правильный баланс. «Мы извлекли уроки из того, что произошло”, – говорит бодаар, политический советник, о прошлых скандалах. И на этот раз город хотел создать систему, которая показала бы жителям Амстердама, что мы делаем хорошо и честно.
Поиск лучшего способа
Каждый раз, когда житель Амстердама подает заявление на получение социальной помощи, соцработник проверяет заявление на наличие нарушений. Если заявка выглядит подозрительной, ее можно отправить в городской следственный департамент, что может привести к отклонению, требованию исправить ошибки в документах или рекомендации о том, чтобы кандидат получал меньше денег.
Расследования также могут проводиться позже, после того как помощь назначат. Результат может заставить получателей вернуть деньги и даже бросить некоторых людей в долги.
Официальные лица обладают широкими полномочиями в отношении заявителей и существующих получателей социальной помощи. Они могут запрашивать банковские записи, вызывать людей на разговор и в некоторых случаях наносить необъявленные визиты к человеку домой.
По мере проведения расследований или исправления ошибок в оформлении документов столь необходимые платежи могут быть отложены. И часто — согласно данным, предоставленным Бодааром, более чем в половине расследований заявлений-город не находит доказательств правонарушений.
В таких случаях это может означать, что город несправедливо преследовал людей, говорит Бодаар.
Система Smart Check была разработана для того, чтобы избежать подобных сценариев, в конечном итоге заменив первоначального соцработника, указывающего, какие дела следует направлять в следственный отдел. Алгоритм будет проверять заявки, чтобы выявить те, которые с наибольшей вероятностью связаны с серьезными ошибками, на основе определенных личных характеристик, и перенаправлять эти дела для дальнейшего изучения командой правоохранительных органов.
Если все пойдет хорошо, система улучшит работу соцработников, отмечая меньшее количество обращений для расследования, при этом выявляя большую долю случаев с ошибками. В одном из документов городские власти прогнозировали, что эта модель предотвратит взыскание долгов с 125 отдельных амстердамцев и сэкономит 2,4 миллиона евро ежегодно.
Smart Check был захватывающей перспективой для городских чиновников, таких как де Конинг, которые будут руководить проектом. Он был настроен оптимистично, потому что, по его словам, город придерживался научного подхода.
Это была своего рода смелая идея, которая привлекла оптимистичных технарей, таких как Лоек Беркерс, специалист по обработке данных, который работал над Smart Check. Беркерс вспоминает, как был впечатлен при первом знакомстве с системой: “это был своего рода инновационный проект, в котором пробовались что-то новое”.
В Smart Check використовувався алгоритм, званий “машиною пояснюваного підвищення”, який дозволяє людям легше зрозуміти, як моделі штучного інтелекту дають свої прогнози. Більшість інших моделей машинного навчання часто розглядаються як “чорні ящики” без повного розуміння процесів.
Модель Smart Check буде враховувати 15 характеристик, включаючи те, чи заявники подавали раніше заявки на отримання пільг або отримували їх, суму їх активів і кількість адрес, які у них є в досьє, щоб присвоїти кожній людині оцінку ризику. Алгоритм цілеспрямовано уникає демографічні фактори, такі як стать, національність або вік, які, як вважалося, приводили до упередженості. В ньому також була зроблена спроба уникнути “непрямих чинників, таких як поштові індекси, якщо, наприклад, поштовий індекс статистично пов’язаний з певною етнічною групою.
Ця модель була навчена на наборі даних, що охоплює 3400 попередніх досліджень одержувачів соціальних допомог. Ідея полягала в тому, що алгоритм використовував би результати розслідувань, проведених міською службовцями, щоб з’ясувати, які фактори в початкових заявках були пов’язані з потенційним шахрайством.
Але використання минулих досліджень з самого початку створює потенційні проблеми, каже Сеннай Гебриб, науковий директор Лабораторії цивільного штучного інтелекту (CAIL) Амстердамського університету. Проблема використання історичних даних для побудови моделей, за його словами, полягає в тому, що “в кінцевому результаті ми отримаємо історичні спотворення”.
Например, если соцработники исторически допускали большую предвзятость к определенной этнической группе, модель может ошибочно научиться предсказывать, что эта этническая группа совершает мошенничество с более высокой частотой.
Город решил провести тщательный аудит своей системы, чтобы попытаться выявить аналогичные предубеждения в отношении уязвимых групп населения. Но то, как следует определять предвзятость и, следовательно, честность алгоритма, является предметом ожесточенных споров.
За последнее десятилетие ученые предложили десятки конкурирующих математических представлений о справедливости, некоторые из них несовместимы между собой. Это означает, что система, разработанная для того, чтобы быть “справедливой” в соответствии с одним таким стандартом, неизбежно будет несправедливой в других методах оценки справедливости.
Официальные лица Амстердама приняли определение справедливости, которое было сосредоточено на равном распределении бремени расследований между различными демографическими группами. Они надеялись, что такой подход обеспечит, чтобы соискатели социального обеспечения из разных слоев общества несли одинаковое бремя неправильного расследования с одинаковыми показателями.
Неоднозначная обратная связь
При создании Smart Check Амстердам консультировался с различными государственными органами по поводу этой модели, в том числе с городским специалистом по внутренней защите данных и Комиссией по персональным данным Амстердама. Город также консультировался с частными организациями, включая консалтинговую фирму Deloitte. Каждый из них дал свое одобрение проекту.
Но одной ключевой группы не было на борту: консультативного совета из 15 членов, состоящего из получателей помощи, адвокатов и других неправительственных заинтересованных сторон, представляющих интересы людей, для которых система была разработана.
Анке ван дер Влит, которой сейчас за 70, является одним из давних членов Совета. «Мы не доверяли этому с самого начала», — говорит она, вытаскивая стопку бумаг, которые она сохранила в Smart Check. «Все были против этого».
На протяжении десятилетий она была непоколебимым защитником интересов получателей социальных пособий — группы, которая к концу 2024 года насчитывала около 35 000 человек. В конце 1970-х она помогла основать Women on Welfare, группу, занимающуюся выявлением уникальных проблем, с которыми сталкиваются женщины в системе социального обеспечения.
Еще две встречи не смогли их убедить. Их отзывы действительно привели к ключевым изменениям, включая сокращение количества переменных, которые город первоначально рассматривал для расчета баллов кандидата, и исключение из системы переменных, которые могли внести предвзятость, таких как возраст.
Но через шесть месяцев Совет вообще перестал участвовать в усилиях по развитию города. «Совет придерживается мнения, что подобный эксперимент затрагивает основные права граждан и должен быть прекращен”, – написала группа в марте 2022 года.
Поскольку только около 3% заявлений на получение социальных пособий являются мошенническими, говорилось в письме, использование алгоритма было “непропорциональным”.
Для адвокатов, работающих с бенефициарами социального обеспечения, и для некоторых из самих бенефициаров причиной беспокойства был не скандал, а перспектива реального вреда. Технология может не только привести к пагубным ошибкам, но и затруднить их исправление, позволяя сотрудникам службы социального обеспечения “прятаться за цифровыми стенами”, — говорит Хэнк Крун, юрист, помогающий получателям социальных пособий в Амстердамской ассоциации социального обеспечения, профсоюзе, созданном в 1970-х годах.
Такая система могла бы » облегчить работу [чиновникам]», говорит он. ”Но для простых граждан это очень часто является проблемой».
Время для тестирования
Несмотря на категорические возражения Совета, город решил протестировать работающую модель Smart Check.
Первые результаты оказались совсем не такими, на которые они надеялись. Когда команда продвинутой аналитики запустила первоначальную модель в мае 2022 года, они обнаружили, что алгоритм демонстрирует сильную предвзятость по отношению к мигрантам и мужчинам, что было независимо проверено.
Первоначальная модель с большей вероятностью ошибочно указывала на заявителей, не являющихся гражданами Нидерландов. И было почти в два раза больше шансов ошибочно указать кандидата с гражданством не западной страны. У модели также было на 14% больше шансов ошибочно назвать мужчин мошенниками.
В то время как модель Smart Check с большей вероятностью ошибочно отмечала граждан других стран и мужчин, социальные работники-люди с большей вероятностью ошибочно отмечали граждан Нидерландов и женщин.
Команда Smart Check знала, що якщо вони не зможуть виправити упередженість, проект буде скасовано. Тому вони звернулися до методу академічних досліджень, відомому як повторне зважування навчальних даних. На практиці це означало, що заявникам з не західним громадянством, які, як вважалося, допустили суттєві помилки в своїх заявах, надавалося менше значення в даних, в той час як заявникам із західним громадянством надавалося більше.
В конце концов, это, вероятно, решило проблему: как подтверждает анализ Lighthouse, после того, как модель была повторно взвешена, граждане Нидерландов и других стран с равной вероятностью были ошибочно помечены.
Модель также лучше соцработников определяла программы, заслуживающие дополнительного изучения, при этом внутреннее тестирование показало повышение точности на 20%.
Воодушевленный этими результатами, весной 2023 года город был почти готов запустить систему. Чиновники отправили Smart Check в реестр алгоритмов, правительственную инициативу по обеспечению прозрачности, призванную информировать граждан об алгоритмах машинного обучения, которые либо находятся в разработке, либо уже используются правительством.
Для де Конинга обширные оценки и консультации города были обнадеживающими, особенно потому, что они также обнаружили недостатки в аналоговой системе. Но где Зварта те же самые процессы представляли собой глубокое непонимание: справедливость можно спроектировать.
В письме городским властям де Зварт раскритиковал предпосылки проекта и, более конкретно, обрисовал непреднамеренные последствия, которые могут возникнуть в результате повторного взвешивания данных. Это могло бы уменьшить предвзятое отношение к людям с миграционным прошлым в целом, но не гарантировало бы справедливости при пересечении идентичностей. Например, модель может дискриминировать женщин с миграционным прошлым. И такие предубеждения было бы трудно обнаружить.
В конце концов, сказал он, это вопрос о том, законно ли использовать данные о прошлом поведении для оценки будущего поведения ваших граждан, которое в принципе вы не можете предсказать.
Официальные лица по – прежнему настаивали-и назначили март 2023 года датой начала пилотного проекта. Членов городского совета Амстердама практически не предупредили. Фактически, они были проинформированы только в том же месяце-к разочарованию Элизабет Эймкер, члена совета от Партии зеленых.
Город надеялся, что пилотный запуск сможет доказать неправоту таких скептиков, как она.
Повышаем ставки
Официальный запуск Smart Check начался с ограниченного набора реальных заявителей на получение социального обеспечения, чьи документы обработает алгоритм и предоставит оценку риска, следует ли помечать заявку для расследования. Эти заявки также будут проверены людьми.
Эффективность Smart Check отслеживалась по двум ключевым критериям. Во-первых, может ли он беспристрастно рассматривать кандидатов? И, во-вторых, действительно Smart Check умный?
Другими словами, Может ли сложная математика, из которой состоит алгоритм, на самом деле выявлять мошенничество с социальной помощью лучше и справедливее, чем обычные соцработники?
Не потребовалось много времени, чтобы стало ясно, что модель не оправдала ожиданий по обоим направлениям.
Предвзятость снова проявилась, но на этот раз, вместо граждан других стран и мужчин, модель теперь с большей вероятностью считала мошенниками заявителей с голландским гражданством и женщин.
Собственный анализ Lighthouse также выявил другие формы предвзятости, в том числе высокую вероятность того, что заявители на социальное обеспечение с детьми будут ошибочно заявлены для расследования.
За пилотный период с помощью модели было обработано около 1600 заявок на социальное обеспечение. Но результаты означали, что было неудобно продолжать тестирование, особенно когда это могло привести к реальным последствиям.
Люди, которые работали над проектом, не верили, что это обязательно является причиной отказа от Smart Check. Они хотели получить больше времени-скажем, » период в 12 месяцев”, по словам де Конинга, чтобы продолжить тестирование и доработку модели.
В конце ноября 2023 года Рутгер Грут Вассинк — городской чиновник, отвечающий за социальные вопросы, решил остановить пилотный тест.
Это объявление положило конец масштабному многолетнему эксперименту.
Членам городского совета никогда не сообщали точно, сколько стоил проект , но MIT Technology Review, Lighthouse и Trouw подсчитали расходы в около 500 000 евро плюс 35 000 евро на контракт с Deloitte. Предупредив, что общая сумма, вложенная в проект, была лишь приблизительной, учитывая, что Smart Check был разработан собственными силами различными существующими командами и сотрудниками.
Можно ли когда-нибудь правильно использовать такой алгоритм?
Это вопрос, над которым Эймкер тоже задумывается. На заседаниях городского совета она приводила Smart Check в качестве примера того, чего не следует делать. Но теперь, когда пилот остановился, она беспокоится, что ее коллеги-городские власти могут быть слишком нетерпеливы, чтобы двигаться дальше.
Отказавшись от модели, город вернулся к старому процессу, который, как показал анализ, был предвзят по отношению к женщинам и гражданам Нидерландов.
Чен, консультант по этике в области искусственного интеллекта, спрашивает: «Почему мы придерживаемся самых высоких стандартов в системах искусственного интеллекта, чем в системах с человеческим интеллектом?”. Когда дело доходит до соцработников, он говорит, не было никаких попыток систематически исправлять их предвзятость.
Возможно, пришло время более фундаментально пересмотреть то, как следует определять справедливость — и кем. Помимо математических определений, некоторые исследователи утверждают, что люди, наиболее дискриминируемые этими программами, должны иметь большее право голоса. «Такие системы работают только тогда, когда люди покупают их”, – объясняет Элисса Редмайлс, доцент кафедры компьютерных наук Джорджтаунского университета, изучавшая алгоритмическую справедливость.
Независимо от того, как выглядит процесс, этот вопрос, с которым каждому правительству придется столкнуться в будущем, все больше определяется искусственным интеллектом.
И, как утверждает де Зварт, если не будут решены более широкие вопросы, даже чиновники с добрыми намерениями будут обречены повторять одни и те же уроки снова и снова.
По материалам: MIT Technology Review