Штучний інтелект уже не просто допомагає писати фішингові листи чи генерувати deepfake?відео. На новому етапі він безпосередньо бере участь у повному циклі кібератак — від пошуку вразливостей до їх експлуатації. У подкасті Mixture of Experts від IBM Technology, де говорили про безпеку AI?агентів, консалтингові стратегії OpenAI та нові нульові дні, експерти IBM X?Force та IBM Research окреслили, як саме AI змінює і наступ, і оборону в кіберпросторі — і чому це не історія про «кінець гри» на користь однієї зі сторін, а про нову рівновагу.

Нульовий день від Google: коли AI шукає й одразу ламає
Ключовий сигнал для ринку прозвучав від Google: компанія розкрила нульову вразливість, де AI нібито використовувався і для її виявлення, і для експлуатації. Це не просто ще один «zero?day» у довгому списку CVE. Вперше на великій публічній сцені зафіксовано кейс, де модель штучного інтелекту стала інструментом повного наступального ланцюжка.
До цього AI у безпеці найчастіше асоціювався з автоматизацією аналізу логів, виявленням аномалій або, з іншого боку, з масовим фішингом і deepfake?кампаніями. Тепер мова йде про інше: модель здатна самостійно досліджувати код, знаходити помилки, формувати експлойт і запускати атаку.
Цей кейс накладається на ще один важливий маркер: Anthropic раніше публічно демонструвала використання своєї моделі Opus 4.6 для пошуку вразливостей у програмному забезпеченні. Про це йшлося на конференції Unprompted у Сан?Франциско. Тобто провідні лабораторії не просто теоретизують, а вже експериментують з AI як інструментом дослідницького пентесту.
Разом ці історії показують: AI перестав бути лише «підсилювачем» людських команд. Він стає активним гравцем у процесах, які раніше вимагали вузької експертизи реверс?інжинірингу, аналізу пам’яті та глибокого розуміння стеку протоколів.
«Patch apocalypse»: коли машини знаходять десятирічні баги швидше, ніж люди встигають оновлюватися
У IBM X?Force Offensive Research для поточної ситуації вже з’явився власний термін — «patch apocalypse». Йдеться про лавиноподібну хвилю вразливостей, які виявляються та закриваються за допомогою AI?інструментів настільки швидко, що традиційні процеси управління патчами просто не встигають.
AI?системи, навчені на масивах коду та історичних даних про експлойти, здатні сканувати величезні кодові бази й конфігурації, знаходячи помилки, які роками залишалися непоміченими. За оцінками, частина таких багів існувала в продуктивних системах близько десяти років до того, як їх виявили за допомогою AI. Це оголює масштаб прихованого технічного боргу в інфраструктурі, на якій працює сучасна економіка.
Але навіть коли патчі з’являються майже миттєво, залишається критичний операційний вузол: впровадження. Багато організацій усе ще не здатні стабільно закривати навіть найважливіші вразливості протягом 30 днів. Це стосується й гучних багів на кшталт Copyfail чи Dirtyfrag, для яких виправлення існують, але залишаються невстановленими на значній частині систем.
У результаті виникає парадокс. З одного боку, AI пришвидшує виявлення й розробку патчів до небачених раніше масштабів. З іншого — реальний рівень ризику в мережах визначається не стільки швидкістю досліджень, скільки здатністю ІТ?відділів і бізнесу оперативно тестувати, погоджувати й розгортати оновлення.
AI на захисті: верифікація патчів, раннє виявлення й «шумні» атаки
Попри драматичні заголовки про «AI, що ламає інтернет», картина не зводиться до односторонньої ескалації наступальних можливостей. Ті самі технології, які дозволяють знаходити й експлуатувати баги, активно використовуються й на боці оборони.
По?перше, AI застосовується для верифікації патчів. Після випуску оновлення моделі можуть автоматично аналізувати зміни в коді, шукати побічні ефекти, перевіряти, чи не відкрилися нові вектори атаки, і чи справді закрито первинну вразливість. Це створює замкнений цикл зворотного зв’язку, де виправлення не просто публікуються, а й перевіряються на надійність у машинному темпі.
По?друге, AI?системи все частіше працюють як «сенсори раннього попередження», виявляючи підозрілу активність ще до того, як експлойт стає масовим. І тут виникає цікавий ефект: швидкі, повністю автоматизовані атаки виявляються… простішими для детекції.
Високошвидкісні AI?атаки залишають виразніші сліди в логах і телеметрії мережі. Масові сканування, спроби експлуатації на тисячах хостів за лічені хвилини, нетипові патерни звернень до API — усе це створює «шум», який добре піддається аналізу. На цьому тлі повільні, обережні, «людські» злами, де атакувальник тижнями рухається по мережі, залишаючи мінімум артефактів, іноді навіть складніші для виявлення.
Це не означає, що швидкі атаки безпечніші, але змінює акценти в оборонній стратегії. Якщо раніше головний виклик полягав у тому, щоб взагалі помітити факт вторгнення, то тепер зростає роль здатності реагувати в реальному часі, автоматично блокуючи експлойти ще на етапі масового розгортання.
Pwn2Own Berlin: AI?патчі проти AI?експлойтів
Один із найяскравіших індикаторів нової динаміки — хакерські змагання Pwn2Own, де дослідники демонструють нульові дні проти популярного ПЗ. На етапі в Берліні організатори зіткнулися з нетиповою ситуацією: кількість заявлених zero?day?експлойтів виявилася значно більшою, ніж можна було фізично включити в розклад.
Частину потенційних виступів довелося відхилити не лише через часові обмеження. Багато кандидатів просто втратили актуальність: вендори встигли випустити патчі ще до того, як дослідники вийшли на сцену. Причому ці патчі були результатом саме AI?асистованого сканування й аналізу коду.
Цей епізод добре ілюструє, як AI змінює темп гри. Вікно можливостей для експлуатації нульового дня скорочується. Якщо раніше між першим приватним використанням експлойта й публічним розкриттям могли проходити місяці, то тепер ризик того, що вразливість буде незалежно знайдена й закрита іншою AI?системою, зростає.
Для дослідників безпеки це означає тиск на швидкість відповідального розкриття. Для зловмисників — необхідність або діяти блискавично, або зміщуватися в бік більш складних, малопомітних технік, де AI використовується не для «грубої сили», а для тонкої соціальної інженерії чи ланцюжків з кількох малих вразливостей.
Від deepfake?фішингу до автоматизованого пошуку багів: AI у кібербезпеці не почався вчора
Нинішня хвиля уваги до AI?відкритих нульових днів може створювати враження, що саме тут починається вплив штучного інтелекту на кібербезпеку. Насправді це вже друга, а то й третя фаза.
Спочатку AI масово зайшов у соціальну інженерію. Моделі навчились генерувати фішингові листи з тоном, стилем і мовними особливостями, максимально наближеними до конкретної компанії чи людини. Додайте до цього голосові deepfake?дзвінки та відео — і стає зрозуміло, чому класичні поради «перевіряйте орфографію» чи «звертайте увагу на дивний стиль» більше не працюють.
Лише після цього фокус змістився до автоматизованого пошуку технічних вразливостей. Тут AI став логічним продовженням уже наявних практик: статичного й динамічного аналізу коду, fuzzing?тестів, символьного виконання. Моделі доповнили ці інструменти здатністю робити узагальнення, виявляти нетривіальні патерни й пропонувати гіпотези щодо потенційних експлойтів.
Тому нинішні zero?day?історії — не раптовий стрибок, а результат поступового нарощування можливостей. Вони лише роблять видимим те, що в тій чи іншій формі вже відбувалося в лабораторіях і «сірих зонах» інтернету.
Нова рівновага: чому AI не «перемагає» ні наступ, ні оборону
На тлі гучних кейсів легко впасти в один із двох екстремумів: або вважати, що AI остаточно схиляє шальки терезів на користь атакувальників, або, навпаки, що оборона отримає настільки потужні інструменти, що злами стануть маргінальним явищем. Позиція IBM?експертів ближча до третього варіанту: формується стійка рівновага, де обидві сторони одночасно підсилюються.
AI робить наступальні операції швидшими, дешевшими й доступнішими для ширшого кола акторів. Але він же дає обороні можливість:
– автоматизувати аналіз і кореляцію сигналів із різних джерел;
– скорочувати час від виявлення вразливості до випуску патча;
– перевіряти якість виправлень і шукати регресії;
– будувати більш адаптивні системи виявлення аномалій.
У такій конфігурації питання «хто виграє?» втрачає сенс. Натомість на перший план виходить інше: хто швидше й системніше інтегрує frontier?моделі у свої процеси, інфраструктуру й культуру безпеки.
Це зміщує й регуляторну дискусію. Якщо раніше значна частина дебатів навколо потужних моделей зводилася до бінарного «випускати / не випускати», то тепер акцент переходить до того, як прискорити саме оборонне застосування. Чим швидше захисники отримують доступ до тих самих або кращих інструментів, ніж атакувальники, тим меншим буде чистий ризик для екосистеми.
Політика frontier?AI: від заборон до прискорення оборони
У цьому контексті політичні дискусії навколо frontier?моделей — найпотужніших систем загального призначення — поступово змінюються. Замість загальних закликів «заморозити розробку» чи «заборонити відкритий доступ» усе частіше звучить питання: як зробити так, щоб оборонні застосування розвивалися швидше за наступальні?
Це включає кілька практичних вимірів.
По?перше, доступ. Якщо лише обмежене коло гравців має змогу використовувати найсучасніші моделі для аналізу вразливостей і моніторингу, баланс неминуче зміщується. Чим ширше такі можливості інтегровані в продукти безпеки, тим менше шансів, що AI?експлойти залишаться непоміченими.
По?друге, стандарти відповідального розкриття. У світі, де AI може незалежно знайти ту саму вразливість у різних місцях, старі моделі «тихого» використання zero?day протягом тривалого часу стають менш реалістичними. Потрібні оновлені протоколи координації між дослідниками, вендорами й регуляторами, які враховують машинну швидкість відкриттів.
По?третє, інвестиції в операційну сторону. Навіть найкращі моделі не допоможуть, якщо організація не здатна впроваджувати патчі, оновлювати конфігурації й змінювати бізнес?процеси. Політика, орієнтована лише на розвиток «розумних» інструментів без уваги до практичної спроможності їх застосовувати, ризикує створити ілюзію безпеки.
Операційний вузол: 30 днів, які вирішують усе
Попри всі розмови про frontier?AI, zero?day та «patch apocalypse», реальний рівень кіберризику сьогодні часто визначається дуже приземленим показником: чи здатна організація закрити критичну вразливість протягом 30 днів.
Багато компаній на це досі не спроможні. Причини відомі: складні ландшафти з легасі?системами, регуляторні обмеження на вікна простою, брак автоматизації тестування, конфлікти між безпекою й бізнес?пріоритетами. У такій реальності AI?прискорене виявлення багів і випуск патчів дає лише потенційну перевагу, яка не завжди конвертується в реальне зниження ризику.
Це створює своєрідний розрив між «лабораторним» і «польовим» рівнями. На першому AI демонструє вражаючі результати: знаходить десятирічні вразливості, генерує експлойти, перевіряє патчі. На другому — ті самі патчі місяцями чекають у черзі на впровадження, а системи продовжують працювати з відомими дірами.
Подолання цього розриву, ймовірно, стане одним із головних завдань найближчих років. І тут AI може зіграти ще одну роль: допомогти автоматизувати не лише аналіз коду, а й самі процеси управління змінами — від пріоритизації до тестування й розгортання.
Висновок: AI як каталізатор, а не «чарівна паличка»
AI?відкриті нульові дні, «patch apocalypse», Pwn2Own із надлишком експлойтів і frontier?моделі в руках як дослідників, так і зловмисників — усе це не історія про те, що «машини захопили кіберпростір». Швидше, це прискорювач уже наявних трендів.
Штучний інтелект робить видимими й загострює проблеми, які існували й раніше: технічний борг у коді, повільні процеси патч?менеджменту, брак автоматизації в SOC, розрив між політикою й практикою. Водночас він дає інструменти, які дозволяють ці проблеми вирішувати швидше й системніше — за умови, що організації готові змінюватися.
Новий баланс у кібербезпеці, схоже, полягатиме не в тому, щоб «перемогти» AI на боці атаки чи оборони, а в тому, щоб навчитися жити в середовищі, де обидві сторони діють на машинній швидкості. І де головною перевагою стає не доступ до моделей як таких, а здатність інтегрувати їх у процеси, культуру й інфраструктуру безпеки.
Джерело
Mixture of Experts — AI skills security, Open AI Deployment Company & zero days (IBM Technology)


