Штучний інтелект стрімко входить у бізнес-процеси, а разом із ним — новий клас ризиків. В епізоді подкасту IBM Security Intelligence експерти IBM X-Force обговорюють LLMjacking — атаки, під час яких зловмисники викрадають ключі доступу до AI API, витрачають чужі ресурси й залишають компаніям астрономічні рахунки. На цьому тлі постає базове, але поки що недооцінене питання: як саме захищати ці ключі, як будувати безпечну хмарну інфраструктуру для AI та хто відповідає за запобігання таким інцидентам.

У центрі розмови — практичні рекомендації від фахівців IBM X-Force: від поводження з AI API ключами як із «коронними коштовностями» до побудови DevSecOps-пайплайнів з автоматизованим пошуком витоків секретів і аномалій у білінгу.
Від криптомайнінгу до LLMjacking: еволюція викрадення ресурсів
LLMjacking — це логічний наступний крок у давній історії зловживання хмарними ресурсами. На початку 2000-х зловмисники захоплювали сервери переважно для саботажу або створення ботнетів для командування й контролю. З появою криптовалют фокус змістився: зламані хмарні обліковки з потужними GPU перетворювалися на безкоштовні ферми для майнінгу.
Сьогодні роль «золотої жили» відіграють не стільки GPU, скільки доступ до великих мовних моделей і інших AI-сервісів. LLMjacking — це атака, під час якої викрадають AI API ключі, щоб використовувати чужі AI-ресурси, не турбуючись ані про оплату, ані про політики доступу. Мета — не стільки витягти дані, скільки безкоштовно скористатися дорогими моделями, а рахунок залишити власнику ключа.
Наслідки можуть бути миттєвими й руйнівними. Один із розробників невеликого стартапу в Мексиці розповів, що його звичайні витрати на AI становили близько 180 доларів на місяць. Після викрадення ключа Gemini рахунок за 48 годин зріс до 82 000 доларів. Деякі жертви повідомляють, що зловмисники встигають перевищити встановлені ліміти використання або витрат ще до того, як провайдери виявляють аномалію.
Фінансовий удар — лише частина проблеми. Ключі до AI часто вбудовані в більші програмні ланцюжки, де через один скомпрометований токен можна отримати доступ до внутрішніх даних або інших систем. Тож LLMjacking — це не лише про рахунки, а й про потенційну втрату конфіденційності.
AI API ключі як «коронні коштовності»: нова дисципліна секретів
Експерти IBM X-Force наполягають: AI API ключі потрібно розглядати як надчутливі секрети — на рівні з паролями, токенами доступу до критичних систем чи іншими «коронними коштовностями» організації. Це не просто технічний реквізит для розробників, а повноцінний об’єкт захисту.
Причина в тому, що ключі до AI API відкривають не лише доступ до моделей. Як пояснює керівник X-Force Red Adversary Services Патрік Фаселл, будь-який автентифікаційний матеріал слід оцінювати через призму того, який саме доступ він дає атакувальнику. Якщо ключ використовується лише для прямого виклику моделі з обмеженими правами, ризик один. Якщо ж він вшитий у складний бізнес-процес, який взаємодіє з базами даних, внутрішніми сервісами чи сторонніми API, — наслідки компрометації можуть вийти далеко за межі рахунку за AI.
Це особливо критично в контексті «фронтирних» моделей, доступ до яких провайдери намагаються жорстко контролювати. Викрадений легітимний ключ дозволяє обійти процедури верифікації й отримати доступ до потужних інструментів, не створюючи власного акаунта й не залишаючи очевидних слідів. Таким чином, AI API ключі стають не лише фінансовим, а й стратегічним активом, який може бути використаний для розробки шкідливих інструментів, дослідження вразливостей чи автоматизації атак.
Звідси випливає базова вимога: ключі не можуть зберігатися «як зручно», вони мають зберігатися «як безпечно».
Секрети не для GitHub: гігієна зберігання AI ключів
Одна з найболючіших тем, яку підкреслюють фахівці IBM X-Force, — це елементарна гігієна поводження з секретами. Попри роки попереджень, у публічних репозиторіях GitHub досі регулярно знаходять паролі, токени доступу до хмарних сервісів і, тепер, AI API ключі.
Рекомендація експертів однозначна: AI API ключі не повинні опинятися в публічних репозиторіях, конфігураційних файлах, що комітяться в git, або у відкритих змінних середовища, які легко зчитати. Замість цього потрібні повноцінні системи керування секретами, інтегровані в DevOps-процеси.
Йдеться не лише про використання спеціалізованих сховищ секретів, а й про автоматизовані перевірки, які сканують код і конфігурації на предмет випадкового витоку ключів. Кожна зміна в репозиторії, кожен новий пайплайн має супроводжуватися питанням: чи не відкрили ми щось зайве?
Патрік Фаселл наголошує, що розробники перебувають у унікальній позиції ризику: вони мають широкий доступ і саме вони інтегрують ключі в застосунки. Без підтримки з боку безпекових команд і без автоматизованого тестування навіть досвідчені інженери можуть ненавмисно створити «дірку» в захисті. Тому секрет-менеджмент має бути не додатковою опцією, а стандартною частиною інженерної культури.
Хмара «за замовчуванням» небезпечна: чому потрібне багаторівневе укріплення
Ще одна ключова теза IBM X-Force: багато хмарних сервісів за замовчуванням небезпечні для чутливих AI-навантажень. Те, що «з коробки» працює й дозволяє швидко запускати сервіси, часто не відповідає вимогам до безпеки, коли в гру вступають дорогі моделі, конфіденційні дані й критичні бізнес-процеси.
Інцидентні респондери IBM бачать системну проблему: брак глибоких знань про хмару, розрив між командами, що відповідають за хмарну безпеку, та DevOps, і відсутність цілісного підходу до захисту як контрольної площини (control plane), так і площини даних (data plane).
Експерти радять будувати багаторівневий захист. На рівні control plane це означає жорсткі політики доступу, сегментацію, мінімізацію прав, моніторинг змін конфігурацій і активне виявлення аномалій у керуванні ресурсами. На рівні data plane — контроль над тим, які дані передаються в AI-сервіси, як вони логуються, де зберігаються результати обробки й хто має до них доступ.
Особливий акцент робиться на тому, що «за замовчуванням» у хмарі часто вимкнені або не налаштовані критичні механізми безпеки. Організаціям потрібно свідомо проходити етап «укріплення за замовчуванням»: вмикати журнали аудиту, налаштовувати мережеві політики, обмежувати доступ до керуючих інтерфейсів, впроваджувати багатофакторну автентифікацію й регулярне тестування конфігурацій.
Без цього будь-які зусилля щодо захисту AI API ключів можуть виявитися марними: навіть ідеально захищений ключ уразливий, якщо його власник працює в неправильно сегментованому, слабо контрольованому хмарному середовищі.
DevSecOps проти LLMjacking: автоматизація, тестування й спільна відповідальність
Щоб зменшити «радіус ураження» у разі викрадення ключа, IBM X-Force закликає до тіснішої співпраці між захисниками та DevOps-командами. Мета — побудувати DevSecOps-пайплайни, де безпека інтегрована в кожен етап життєвого циклу застосунку, а не додається в кінці.
У такій моделі автоматизоване тестування стає критично важливим. Кожен деплой має супроводжуватися перевірками на наявність витоків секретів, неправильних конфігурацій доступу, зайвих привілеїв і неочікуваних шляхів взаємодії з AI-сервісами. Це дозволяє виявляти проблеми до того, як вони потраплять у продакшн і стануть мішенню для зловмисників.
Водночас DevSecOps — це не лише про інструменти, а й про культуру. Розробники мають отримувати не заборони, а підтримку: шаблони безпечних інтеграцій з AI, зрозумілі політики використання ключів, автоматизовані сервіси зберігання секретів, які не заважають швидкості розробки. Без цього спокуса «тимчасово» захардкодити ключ у коді або покласти його в змінну середовища залишатиметься високою.
Окремий вимір DevSecOps — готовність до інцидентів. Експерти наголошують на необхідності попередньої підготовки: сценарії реагування на компрометацію ключів, можливість швидко їх відкликати й перевипустити, інструменти для оперативного аналізу того, які саме системи й дані могли бути задіяні через скомпрометований токен. Чим краще відпрацьовані ці процеси, тим менше часу зловмисники матимуть для зловживання ресурсами.
Білінг як система раннього попередження: уроки з кредитних карток
Історія з рахунком у 82 000 доларів оголює ще одну слабку ланку — відсутність ефективних «страхових запобіжників» на рівні білінгу AI-сервісів. Постфактум постає очевидне запитання: чому ніхто не зупинив аномальну активність раніше?
Експерти проводять паралель із еволюцією захисту кредитних карток. Колись шахрайські транзакції виявлялися лише після того, як клієнт отримував виписку. Сьогодні банки й платіжні системи використовують складні моделі виявлення аномалій: незвичні суми, географія, типи покупок — усе це може спровокувати миттєве блокування операції й запит підтвердження.
Подібний підхід, на думку IBM X-Force, має стати стандартом і для AI API. Потрібні системи моніторингу, які в режимі близькому до реального часу відстежують незвичні патерни використання: різке зростання кількості запитів, зміну типів моделей, нетипові часові вікна активності, нові географічні регіони. У разі виявлення аномалій сервіс має або автоматично обмежувати використання, або принаймні негайно сповіщати власника акаунта.
Ключовий момент — спільна відповідальність. Провайдери AI-сервісів мають будувати такі механізми в свої платформи, але й кінцеві користувачі не можуть перекладати всю відповідальність на них. Організації повинні налаштовувати власні внутрішні ліміти, дашборди моніторингу, оповіщення для фінансових і безпекових команд, а також внутрішні політики, які визначають, що робити у разі різкого стрибка витрат.
Мета — перетворити білінг із пасивного інструмента обліку на активний елемент системи безпеки, який допомагає виявляти й зупиняти зловживання ще до того, як вони перетворяться на катастрофічні рахунки.
Оцінювати ризик за доступом, а не за типом ключа
Одна з найважливіших концепцій, яку просуває Патрік Фаселл, — це відхід від спрощеного поділу «це просто API-ключ, а не пароль». Будь-який автентифікаційний матеріал — чи то токен до AI API, чи SSH-ключ, чи cookie сесії — має оцінюватися за тим, який саме доступ він надає.
У контексті AI це означає, що організації повинні чітко розуміти, де й як використовуються їхні ключі: які моделі вони викликають, які дані передаються в запитах, які внутрішні або зовнішні сервіси залучені в ланцюжок обробки. Якщо ключ використовується в ізольованому сервісі з обмеженими правами, ризик один. Якщо ж він є частиною складної інтеграції, яка може торкатися клієнтських даних, внутрішніх API або систем управління, — його компрометація стає подією зовсім іншого масштабу.
Такий підхід вимагає інвентаризації: організації мають знати, скільки в них AI API ключів, де вони зберігаються, які права мають, хто відповідає за їх ротацію й моніторинг. Без цього будь-які розмови про «захист ключів» залишаються абстракцією.
Висновок: безпека AI починається з ключів і закінчується культурою
LLMjacking показує, що перехід до AI-сервісів не лише відкриває нові можливості, а й відтворює старі проблеми в новому масштабі. Викрадені ключі, небезпечні налаштування за замовчуванням, розрив між розробкою й безпекою, відсутність ефективних білінгових запобіжників — усе це знайомі сюжети, які тепер граються на полі штучного інтелекту.
Позиція експертів IBM X-Force зводиться до кількох принципів. AI API ключі — це коронні коштовності, які потрібно захищати так само ретельно, як паролі до критичних систем. Хмара «з коробки» не є безпечною для чутливих AI-навантажень, її потрібно свідомо укріплювати на всіх рівнях. DevSecOps має стати не модним словом, а реальною практикою, де автоматизоване тестування й керування секретами вбудовані в кожен реліз. А білінг і моніторинг використання AI повинні працювати за логікою захисту кредитних карток, а не паперових рахунків.
У підсумку йдеться не лише про технології, а про культуру. Організації, які навчаться ставитися до AI API ключів як до стратегічного активу, будувати багаторівневий захист і працювати спільно — розробники, безпекові команди й провайдери — матимуть значно більше шансів уникнути як фінансових шоків, так і глибших компрометацій у новій AI-економіці.
Джерело
LLMjacking: How hackers steal your AI API keys and stick you with the bill — IBM Technology


