За даними дослідження, опублікованого урядовою установою, кожен третій дорослий у Великій Британії використовує штучний інтелект для емоційної підтримки або соціальної взаємодії.
Водночас одна з 25 осіб звертається до таких технологій за підтримкою або для спілкування щодня, йдеться у першому звіті Інституту безпеки штучного інтелекту (AI Security Institute, AISI).
Звіт ґрунтується на двох роках тестування можливостей понад 30 передових, але неназваних систем штучного інтелекту. Оцінювання охоплювало сфери, критично важливі для безпеки, зокрема кіберзахист, хімію та біологію.
Уряд заявив, що робота AISI має підтримати майбутні державні ініціативи, допомагаючи компаніям усувати проблеми «до того, як їхні системи штучного інтелекту будуть широко впроваджені».
Опитування AISI серед понад 2 000 дорослих мешканців Великої Британії показало, що люди насамперед використовують чат-боти на кшталт ChatGPT для емоційної підтримки або соціальної взаємодії. На другому місці за популярністю опинилися голосові асистенти, зокрема Amazon Alexa.
Дослідники також проаналізували, що відбувалося з онлайн-спільнотою з понад двох мільйонів користувачів Reddit, присвяченою обговоренню AI-компаньйонів, у моменти, коли ці технології переставали працювати.
Було виявлено, що під час збоїв у роботі чат-ботів люди повідомляли про так звані «симптоми відміни», зокрема відчуття тривоги або депресії, порушення сну, а також нехтування повсякденними обов’язками.
Подвоєння кіберможливостей
Окрім емоційного впливу використання штучного інтелекту, дослідники AISI проаналізували й інші ризики, пов’язані зі стрімким зростанням можливостей цієї технології.
Існує значне занепокоєння щодо використання штучного інтелекту для здійснення кібератак, однак водночас він може застосовуватися і для захисту систем від хакерів.
Звіт свідчить, що здатність штучного інтелекту виявляти та використовувати вразливості безпеки в окремих випадках «подвоювалася кожні вісім місяців».
Також було зафіксовано, що системи штучного інтелекту починають виконувати кіберзавдання експертного рівня, для яких зазвичай потрібно понад 10 років професійного досвіду.
Дослідники відзначили й стрімке зростання впливу штучного інтелекту в науці.
У 2025 році моделі штучного інтелекту «давно перевершили експертів-людей з біології, які мають ступінь доктора філософії, а показники в хімії швидко наздоганяють цей рівень».
«Втрата контролю людиною»
Від романів на кшталт «Я, робот» Айзека Азімова до сучасних відеоігор, таких як Horizon: Zero Dawn, наукова фантастика давно уявляє сценарії, за яких штучний інтелект виходить з-під людського контролю.
Згідно зі звітом, «найгірший сценарій», за якого люди втрачають контроль над передовими системами штучного інтелекту, «серйозно розглядається багатьма експертами».
Контрольовані лабораторні тести показали, що моделі штучного інтелекту дедалі частіше демонструють деякі можливості, необхідні для самовідтворення в інтернеті.
AISI досліджував, чи здатні моделі виконувати прості версії завдань, потрібних на ранніх етапах самовідтворення, зокрема «проходити процедури ідентифікації клієнта, необхідні для доступу до фінансових послуг», з метою успішної купівлі обчислювальних ресурсів, на яких могли б працювати їхні копії.
Однак дослідження показало, що для реалізації цього в реальному світі системам штучного інтелекту необхідно виконувати кілька таких дій послідовно «залишаючись непоміченими», а на це, за наявними даними, вони наразі не здатні.
Експерти інституту також розглянули можливість так званого «sandbagging», тобто стратегічного приховування справжніх можливостей моделей під час тестування.
Тести показали, що така поведінка теоретично можлива, але доказів того, що подібне приховування реально відбувається, виявлено не було.
У травні компанія Anthropic опублікувала суперечливий звіт, у якому описувалося, що одна з моделей штучного інтелекту демонструвала поведінку, схожу на шантаж, у ситуації, коли вона вважала, що її «самозбереження» перебуває під загрозою.
Водночас загроза з боку неконтрольованого штучного інтелекту залишається предметом глибоких розбіжностей серед провідних дослідників, багато з яких вважають ці побоювання перебільшеними.
«Універсальні джейлбрейки»
Щоб зменшити ризик зловмисного використання своїх систем, компанії впроваджують численні запобіжні механізми.
Проте дослідникам вдалося знайти так звані «універсальні джейлбрейки», тобто способи обходу захисту, для всіх досліджуваних моделей, що дозволяють уникати встановлених обмежень.
Разом із тим для деяких моделей час, необхідний експертам, щоб змусити систему обійти захисні механізми, за шість місяців зріс у сорок разів.
У звіті також зафіксовано зростання використання інструментів, які дозволяють агентам штучного інтелекту виконувати «високоризикові завдання» у критично важливих секторах, зокрема у фінансах.
Водночас дослідники не розглядали потенціал штучного інтелекту щодо короткострокового безробіття через витіснення людей з робочих місць.
Інститут також не аналізував екологічний вплив обчислювальних ресурсів, необхідних для роботи передових моделей, аргументуючи це тим, що його завдання полягає у зосередженні на «суспільних наслідках», які безпосередньо пов’язані з можливостями штучного інтелекту, а не на більш «розмитих» економічних або екологічних ефектах.
Водночас деякі експерти вважають, що і економічні, і екологічні наслідки є нагальними та серйозними суспільними загрозами, пов’язаними з цією технологією.
Крім того, за кілька годин до публікації звіту AISI було оприлюднено рецензоване наукове дослідження, яке припускає, що екологічний вплив може бути більшим, ніж вважалося раніше, і закликає великі технологічні компанії надавати більш детальні дані.



