У подкасті IBM Security Intelligence креативна директорка IBM X‑Force Cyber Range Клер Нуньєс, віцепрезидент з глобального управління кіберзагрозами Дейв Маꥳнніс та інженерка з детекції загроз Кіммі Фаррінгтон обговорюють, як штучний інтелект змінює саму природу програмного забезпечення й оборони. Від експериментів із агентами на кшталт OpenClaw до ідей Брюса Шнайєра про «миттєве» програмне забезпечення — розмова зводиться до одного: або захисники навчаться використовувати потужні AI‑моделі, або цим скористаються нападники.

Коли безпека стає «занадто дорогою»: як AI робить захист відчутним і доступнішим
Для багатьох організацій кібербезпека досі виглядає як складна, дорога й дещо абстрактна інвестиція. Захист начебто потрібен, але його важко «помацати», а бюджети завжди обмежені. На цьому тлі позиція Клер Нуньєс звучить як спроба змінити саму економіку безпеки: штучний інтелект може зробити захист більш відчутним і доступним, якщо правильно використати його для автоматизації рутинних завдань.
Йдеться не про модну «іграшку» на кшталт генерації списку покупок, а про дуже конкретні сценарії: аналіз повторюваних робочих процесів, виявлення шаблонів у великих масивах даних, прискорення тестування на проникнення. Саме ці завдання традиційно «з’їдають» час дорогих фахівців, яких на ринку й так бракує.
Автоматизація таких процесів за допомогою AI‑агентів дозволяє:
- зменшити навантаження на команди безпеки, які постійно працюють «на межі»;
- зробити послуги на кшталт регулярного пентесту чи глибокого аналізу журналів доступними навіть для організацій, які раніше не могли собі цього дозволити;
- перетворити безпеку з абстрактної статті витрат на набір конкретних, вимірюваних сервісів.
При цьому Нуньєс наголошує: AI не може й не повинен повністю замінювати людей у безпеці. Моделі добре працюють там, де є повторюваність і чіткі патерни, але вони не здатні повністю відтворити людську багатовимірну оцінку ризиків, контекст бізнесу чи креативність мислення зловмисника. Тому навіть якщо AI робить пентест швидшим, дешевшим і більш «осяжним» для бізнесу, остаточну валідацію результатів, пріоритизацію та прийняття рішень мають здійснювати експерти.
Фактично йдеться про новий розподіл ролей: AI бере на себе «важку механіку» — збір, кореляцію, первинний аналіз, — а люди концентруються на стратегічних рішеннях і складних, неоднозначних кейсах.
Команди безпеки як природні лідери AI‑трансформації
Цікава теза, що прозвучала в дискусії: саме кібербезпека може й повинна стати одним із головних драйверів впровадження штучного інтелекту в організаціях. Аргументи тут радше прагматичні, ніж ідеологічні.
По‑перше, фахівці з безпеки вже багато років живуть у режимі інформаційного перевантаження. Системи моніторингу, SIEM‑платформи, EDR‑рішення генерують потоки алертів, які фізично неможливо опрацювати вручну. Люди змушені постійно обирати, на що звернути увагу, а що проігнорувати, ризикуючи пропустити критичну атаку.
У такій реальності мотивація до автоматизації — не теоретична, а екзистенційна. Якщо не делегувати частину тріажу, кореляції та первинного аналізу AI‑системам, команда просто не встигає реагувати. Саме тому, на думку панелістів IBM, безпека є однією з небагатьох функцій, де впровадження AI — не «приємний бонус», а питання виживання.
По‑друге, у безпекових команд є унікальний досвід, якого бракує багатьом іншим підрозділам: вони роками будували політики доступу, визначали «зайве знати», ставили незручні запитання на кшталт «а чи справді вам потрібні ці права?». Ця культура скепсису й мислення «за найгіршим сценарієм» виявляється напрочуд доречною, коли мова заходить про керування AI‑агентами всередині підприємства.
AI‑агент, який має доступ до внутрішніх систем, поводиться майже як привілейований інсайдер. Він може бути «найкориснішим інсайдером», але водночас і потенційно найнебезпечнішим. Саме фахівці з безпеки звикли працювати з такими сутностями: обмежувати повноваження, будувати сегментацію, запроваджувати контроль дій, логування, принцип найменших привілеїв.
По‑третє, безпека традиційно є тією сферою, де питання «чи можна?» завжди йде поруч із питанням «чи безпечно?». Цей баланс між користю й ризиком — те, що потрібно будь‑якій організації, яка починає масово впроваджувати AI. І саме тут досвід кіберкоманд може стати методологічним фундаментом для ширшої AI‑стратегії.
Claude Mythos, GPT‑5.4 Cyber і гонка озброєнь: чому захисникам не можна відставати
На ринку вже з’являються спеціалізовані моделі, орієнтовані на безпеку: у подкасті згадуються Claude Mythos від Anthropic та GPT‑5.4 Cyber від OpenAI. Це не просто «чергові LLM», а інструменти, які можна використовувати для аналізу, виявлення загроз, моделювання атак і захисту.
Сам факт їхньої появи підкреслює важливий тренд: штучний інтелект стає повноцінним гравцем у кіберконфронтації. І тут позиція IBM‑експертів доволі однозначна: якщо захисники не будуть активно експериментувати з потужними моделями, це зроблять нападники — і отримають стратегічну перевагу.
Аргументація проста. Потужні моделі дозволяють:
- швидше аналізувати великі обсяги коду, конфігурацій, логів;
- моделювати складні сценарії атак, які раніше вимагали тижнів роботи експертів;
- автоматизувати рутинні кроки в ланцюжку атаки або захисту.
Якщо такі можливості опиняються лише в руках зловмисників, захисники опиняються в ролі тих, хто постійно «наздоганяє». Вони змушені реагувати на атаки, які були сплановані й реалізовані зі швидкістю, недосяжною для традиційних інструментів.
Звідси й заклик: не чекати, поки ринок «устаканиться», а вже зараз починати пілоти, тестування, порівняння. В IBM, наприклад, побудували спеціальний «harness» — обв’язку над AI‑агентами, яка дозволяє запускати їх із різними моделями під капотом і порівнювати ефективність із класичними сканерами вразливостей та інструментами пентесту. Це не сліпе захоплення новинками, а системна перевірка: де саме AI дає приріст, а де поки що програє традиційним підходам.
Водночас панелісти наголошують: навіть найкращі AI‑пентестери не скасовують потреби в людській експертизі. Результати, які видає модель, потрібно перевіряти, інтерпретувати, співвідносити з реальними бізнес‑ризиками. Машина може знайти «дірку», але рішення, чи варто її закривати негайно, як це вплине на операції, які компроміси прийнятні, — усе це залишається в зоні відповідальності людей.
«Миттєве» програмне забезпечення й фантомні додатки: виклик епохи AI‑генерації коду
Другий великий пласт дискусії стосується того, як сам характер програмного забезпечення змінюється під впливом AI. Тут важливою точкою відліку стає есе Брюса Шнайєра «Cybersecurity in the Age of Instant Software», де він описує потенційне майбутнє «миттєвого» ПЗ.
Ідея полягає в тому, що AI‑системи зможуть за лічені секунди генерувати спеціалізовані застосунки під конкретне завдання, запускати їх, а потім нібито «викидати», щойно потреба зникла. Замість довготривалих, ретельно підтримуваних систем ми отримуємо потік одноразових, ситуативних програм.
На перший погляд це виглядає як мрія: жодних громіздких релізних циклів, жодних черг у розробників, усе «на льоту». Але з точки зору безпеки тут криється кілька фундаментальних проблем.
По‑перше, сам процес патчінгу й пошуку вразливостей у такому світі змінюється до невпізнання. Якщо програмне забезпечення живе години чи дні, а не роки, класична модель «знайшли вразливість — випустили патч — розгорнули оновлення» просто не встигає спрацювати. Потрібні механізми, які вбудовують безпеку в сам процес генерації й виконання коду, а не додають її «зверху» постфактум.
По‑друге, і це особливо підкреслюється в подкасті, «миттєві» застосунки навряд чи будуть справді зникати. Навіть якщо AI‑система вважає, що вона «видалила» тимчасовий інструмент, у реальності залишаються копії, кеші, резервні знімки, забуті інстанси в хмарах, скрипти, які хтось зберіг «на всяк випадок». У результаті організації ризикують накопичити цілий шар фантомних, непідтримуваних, але все ще доступних і потенційно вразливих інструментів.
Такі «епізодичні» застосунки можуть:
- містити жорстко зашиті облікові дані або токени доступу;
- використовувати застарілі бібліотеки без оновлень;
- працювати в оточеннях із надмірними привілеями, бо їх «робили на швидку руку».
Якщо ці артефакти не контролювати, вони перетворюються на ідеальні точки входу для атак. І тут знову повертаємося до ролі AI‑захисту: без автоматизованих засобів виявлення, інвентаризації й аналізу такого «миттєвого» ПЗ люди просто не встигатимуть відстежувати, що взагалі існує в їхній інфраструктурі.
AI‑агенти як «корисні інсайдери» і чому без людини в циклі поки ніяк
Окрема лінія розмови стосується того, як саме працювати з AI‑агентами всередині організації. Приклад OpenClaw тут показовий. Як тільки інструмент став доступним публічно, частина адміністраторів у IBM просто завантажила його й почала запускати на власних системах. Команда детекції, за словами Кіммі Фаррінгтон, раптово виявила, що не готова до такого сценарію й змушена в авральному режимі вигадувати, як блокувати агент, який має привілейований доступ і задуманий як «корисний помічник».
Цей епізод добре ілюструє тезу, яку в подкасті формулюють доволі жорстко: AI‑агенти створюють величезну нову площину атаки. Вони працюють із правами, яких часто не мають звичайні користувачі, автоматизують дії, які раніше виконувалися вручну, і при цьому можуть бути важко відрізнені від легітимної активності.
Саме тому панелісти наполягають: на сьогодні AI‑агенти мають працювати лише з людиною в циклі. Їм можна довірити збір даних, первинний аналіз, пропозиції дій, але не повністю автономне виконання критичних операцій. Людина має:
- затверджувати або відхиляти дії, які змінюють конфігурацію, політики доступу, мережеву топологію;
- перевіряти логіку рішень, які пропонує агент, особливо в нетипових ситуаціях;
- стежити за тим, щоб агент не виходив за межі визначених повноважень.
Цей підхід особливо важливий у контексті «миттєвого» ПЗ. Якщо AI‑агент здатен не лише генерувати тимчасові застосунки, а й самостійно розгортати їх у продакшені, змінювати мережеві правила чи політики доступу, будь‑яка помилка або зловмисна маніпуляція можуть мати катастрофічні наслідки. Людський контроль тут — не формальність, а критичний елемент безпеки.
Водночас саме команди безпеки, зі своїм досвідом побудови ґардів, політик доступу й моніторингу, найкраще підготовлені до того, щоб визначати, де саме проходить межа між корисною автономією агента й неприйнятним ризиком.
Висновок: стратегія для епохи миттєвого коду й розумних агентів
Штучний інтелект одночасно змінює й інструменти захисту, і сам об’єкт захисту. З одного боку, з’являються спеціалізовані моделі на кшталт Claude Mythos і GPT‑5.4 Cyber, які можуть суттєво посилити оборону, автоматизувавши аналіз, виявлення й моделювання атак. З іншого — AI робить можливим світ «миттєвого» програмного забезпечення, де застосунки народжуються й зникають за секунди, залишаючи по собі сліди, які легко перетворюються на вразливості.
У такій реальності пасивне очікування — найгірша стратегія. Якщо захисники не будуть активно експериментувати з потужними моделями, це зроблять нападники. Якщо організації не навчаться керувати AI‑агентами як привілейованими, але потенційно небезпечними «інсайдерами», ці агенти стануть новими векторами атак. Якщо безпека не інтегрується в сам процес генерації й життєвого циклу «миттєвого» ПЗ, патчінг і пошук вразливостей просто не встигатимуть за реальністю.
Водночас саме кіберкоманди мають унікальний набір компетенцій, щоб очолити цю трансформацію. Вони вже вміють ставити незручні запитання про доступ, будувати ґарди, працювати з перевантаженням даними. І якщо доповнити цей досвід можливостями AI — від автоматизації рутинних робочих процесів до використання спеціалізованих моделей для аналізу й симуляції — безпека може стати не гальмом, а рушієм цифрових змін.
Ключовий виклик найближчих років — знайти баланс між швидкістю й обережністю, між потужністю AI‑моделей і жорсткими ґардами, між «миттєвим» ПЗ і довгостроковою відповідальністю за його наслідки. І саме від того, наскільки швидко й відповідально команди безпеки візьмуть на себе роль лідерів у впровадженні AI, залежатиме, чи стане нова ера штучного інтелекту шансом посилити оборону — чи черговим витком переваги нападників.


