Цього тижня Twitter сколихнула фотографія вибуху перед будівлею Пентагону. Знімок переопублікували десятки верифікованих акаунтів, зокрема WarMonitors, BloombergFeed, RT. Знімок викликав реальну паніку – індекс S&P 500 впав на 10 пунктів за п’ять хвилин. Хоча згодом з’ясувалося, що це фейкове фото, згенероване штучним інтелектом.
Заступник офіцера Пентагону сказав: «Ми не маємо жодних коментарів, окрім підтвердження того, що це неправда».
Видання The Kobeissi Letter, яке повідомляє про глобальні ринки капіталу, опублікувало твіт про це зображення через годину після того, як воно стало вірусним.
«Оскільки численні джерела новин повідомили про це як про реальність, індекс S&P 500 впав на 30 пунктів за лічені хвилини. Це призвело до коливання ринкової капіталізації на 500 мільярдів доларів на підробленому зображенні», — написало The Kobeissi Letter у Twitter.
У той час як деякі користувачі Twitter звинуватили технологію штучного інтелекту у підробленому зображенні, інші вказали на облікові записи, які швидко ретвітнули фотографію, не перевіряючи її автентичність.
Нік Вотерс, колишній військовослужбовець і журналіст Bellingcat, написав, що фейк видає те, як огорожа зливається з перешкодами для натовпу. Крім того, немає інших зображень, відео або людей, які публікують повідомлення як свідки з перших рук.
Тим часом, штучний інтелект також все більше залучають до підробки голосів і шахрайському отриманні грошей. У жертв майже немає шансів протистояти, коли вони чують підроблений голос близької людини – 77% втрачають свої гроші.