На этой неделе Twitter всколыхнула фотография взрыва перед зданием Пентагона. Снимок переопубликовали десятки верифицированных аккаунтов, включая следующие WarMonitors, BloombergFeed, RT. Снимок вызвал реальную панику – индекс S&P 500 упал на 10 пунктов за пять минут. Хотя впоследствии выяснилось, что это фейковое фото, сгенерированное искусственным интеллектом.
Заместитель офицера Пентагона сказал: «У нас нет комментариев, кроме подтверждения того, что это неправда».
Издание The Kobeissi Letter, сообщающее о глобальных рынках капитала, опубликовало твит об этом изображении через час после того, как оно стало вирусным.
«Поскольку многочисленные новостные источники сообщили об этом как о реальности, индекс S&P 500 упал на 30 пунктов за считанные минуты. Это привело к колебаниям рыночной капитализации на 500 миллиардов долларов на поддельном изображении», — написало The Kobeissi Letter в Twitter.
В то время как некоторые пользователи Twitter обвинили технологию искусственного интеллекта в поддельном изображении, другие указали на учетные записи, которые быстро ретвитнули фотографию, не проверяя ее подлинность.
Ник Уотерс, бывший военнослужащий и журналист Bellingcat, написал, что фейк выдает то, как изгородь сливается с препятствиями для толпы. Кроме того, нет других изображений, видео или людей, которые публикуют сообщения в качестве свидетелей из первых рук.
Между тем искусственный интеллект также все больше привлекают к подделке голосов и мошенническом получении денег. У жертв почти нет шансов противостоять, когда они слышат поддельный голос близкого человека – 77% теряют свои деньги.