Субота, 16 Травня, 2026

MELLEA: як IBM хоче перетворити хаотичні AI-скіли на безпечний код

У корпоративному світі штучного інтелекту стрімко формується новий клас продуктів — агентні системи, які виконують завдання через набір так званих «skills» або навичок. Саме навички визначають, що агент уміє робити: від роботи з документами до інтеграції з внутрішніми системами компанії. Але разом із вибуховим зростанням маркетплейсів на кшталт OpenClaw з’явилася й інша реальність: хаос, суперечливі інструкції, відсутність гарантій безпеки та передбачуваності.

На подкасті Mixture of Experts від IBM Technology IBM Fellow Куш Варшні та його колеги розповіли про підхід IBM Research до цієї проблеми — про MELLEA, нову парадигму «генеративних обчислень» і компілятор навичок, який перетворює розмиті текстові описи агентних skills на детерміновані Python?програми з вбудованими захисними механізмами.

Від «магічних» промптів до генеративних обчислень

За останній рік індустрія масово перейшла до моделі «prompts as code»: замість класичного програмування розробники описують поведінку агентів у вигляді довгих текстових інструкцій. Це зручно для швидких експериментів, але створює серйозні проблеми для безпеки, тестування та супроводу.

MELLEA, яку розробляє IBM Research, пропонує іншу рамку — генеративні обчислення як поєднання двох світів: класичного детермінованого коду та цілеспрямованих викликів LLM. Ідея проста, але радикальна для нинішньої практики: більшість логіки має залишатися звичайною програмою, а великі мовні моделі підключаються лише там, де справді потрібна генерація, робота з контекстом чи вільна композиція інформації.

У цій парадигмі LLM — це не «мозок, який робить усе», а ще один модуль у добре спроєктованій системі. Контрольні потоки, перевірки, інтеграції з інфраструктурою, обмеження доступу — усе це реалізується звичайним кодом. Генеративна модель викликається в чітко визначених «слотах», де її недетермінованість є прийнятною або навіть бажаною.

Такий підхід повертає в центр те, що комп’ютерна інженерія напрацьовувала десятиліттями: компілятори, операційні системи, інструменти аналізу коду, тестування, контроль версій. MELLEA намагається не зламати ці практики, а вбудувати LLM у їхню логіку.

Як працює MELLEA: skills.mmd перетворюються на Python

Ключовий інструмент у цьому підході — MELLEA skills compiler. Він бере на вхід natural?language опис навички у файлі skills.mmd і перетворює його на структуровану Python?програму.

Сьогодні більшість skills для агентів описуються як напівформальні текстові документи: довгі промпти, списки правил, приклади діалогів. Це зручно авторам, але майже не піддається формальній перевірці. MELLEA не відмовляється від природної мови як зручного середовища для авторингу, але ставиться до неї так само, як класичні компілятори ставляться до вихідного коду високого рівня: як до проміжного артефакту, який має бути скомпільований у більш «твердий» об’єкт.

Компілятор проходить кілька етапів:

спершу аналізує skills.mmd, виокремлюючи структуру навички, очікувані вхідні й вихідні дані, необхідні інструменти та зовнішні виклики;

далі будує детермінований каркас Python?програми, де чітко прописані кроки виконання, перевірки, обробка помилок;

у місцях, де потрібна генерація тексту, інтерпретація контексту чи творча композиція, вставляє виклики до невеликих мовних моделей — саме як до «генеративних слотів».

Результат — звичайний Python?файл, який можна запускати з командного рядка, вбудовувати в більші системи, покривати тестами, переглядати в код?рев’ю, відслідковувати через Git. Навичка перестає бути «чорною скринькою» з промптів і перетворюється на програму, яку можна інспектувати й валідувати так само, як будь?який інший продакшн?код.

Це принципово змінює підхід до життєвого циклу AI?skills. Замість того, щоб вручну перевіряти кожен промпт чи покладатися на неформальні практики, команди отримують можливість будувати бібліотеки навичок, які мають чітку схему, проходять компіляцію, валідацію та можуть повторно використовуватися в різних агентних системах.

Детермінізм як відповідь на хаос маркетплейсів

Одне з головних питань, яке постає перед будь?якою організацією, що працює з агентами, — наскільки можна довіряти навичкам, узятим із відкритих маркетплейсів. Сьогоднішні платформи, подібні до OpenClaw, наповнені skills різної якості, з суперечливими інструкціями, прихованими ризиками безпеки та відсутністю стандартів.

MELLEA пропонує відповідь: майбутнє навичок — це програми. Не в сенсі повернення до повністю ручного кодування, а в сенсі того, що кінцевий артефакт має бути детермінованим і прозорим.

У MELLEA?підході навичка — це детермінована програма, яка лише в окремих, явно визначених місцях викликає невеликі мовні моделі. Це дозволяє:

чітко розуміти, які саме частини поведінки агента є передбачуваними, а де допускається варіативність;

обмежувати повноваження LLM, не даючи їй прямого доступу до інструментів, API чи критичних систем без проміжних перевірок у коді;

будувати складні багатокрокові сценарії, де кожен крок описаний як звичайна функція чи модуль, а не як ще один фрагмент промпта.

У практиці це означає, що замість десятків розрізнених промптів, які важко версіонувати й тестувати, команди отримують бібліотеку навичок як коду. Їх можна перевіряти на відповідність схемі, проводити статичний аналіз, писати юніт?тести для критичних гілок логіки, відслідковувати зміни через pull?requests.

Для великих організацій це особливо важливо. Коли над агентними системами працюють великі розподілені команди, хаос промптів швидко перетворюється на операційний ризик: важко зрозуміти, хто що змінив, чому поведінка агента раптом стала іншою, чи не з’явилися нові вектори атак через неочевидні інструкції в тексті. Перетворення skills на код повертає керованість і передбачуваність.

Вбудовані «guardian hooks»: безпека за замовчуванням

Окремий вимір MELLEA — безпека виконання. Компілятор не просто транслює текст у Python, а й автоматично вставляє в скомпільовану програму так звані guardian hooks — захисні гачки, які забезпечують контроль під час роботи навички.

Ці guardian?механізми виконують кілька функцій.

По?перше, вони дозволяють централізовано застосовувати політики безпеки до всіх AI?викликів: перевіряти, які інструменти може використовувати навичка, які зовнішні сервіси викликаються, які дані передаються в LLM. Це знижує ризик надмірних дозволів, коли агент отримує доступ до більшої кількості ресурсів, ніж йому потрібно.

По?друге, guardian hooks допомагають боротися з prompt?ін’єкціями та «інструкційним хакінгом». Оскільки логіка навички описана як код, а не як суцільний текст, можна чітко відокремити те, що є «правилами системи», від того, що надходить від користувача чи зовнішніх джерел. Захисні гачки можуть перевіряти, чи не намагається вхідний текст змінити політику, обійти обмеження або змусити модель виконати небажані дії.

По?третє, такий підхід спрощує аудит. Наявність явних точок контролю в коді дозволяє безпековим командам аналізувати, як саме навичка поводиться в різних сценаріях, які перевірки виконуються, де можуть бути слабкі місця. Це важливо не лише для внутрішнього комплаєнсу, а й для зовнішніх регуляторних вимог, які поступово формуються навколо використання генеративного AI в чутливих доменах.

У підсумку MELLEA намагається зробити те, чого бракує сьогоднішнім агентним платформам: вбудувати безпеку й політики в саму тканину навички, а не додавати їх як опціональний шар поверх «магічного» промпта.

A2A?сумісність без прив’язки до одного стандарту

Ще один важливий аспект MELLEA — сумісність із протоколами взаємодії агентів. У розмові згадується A2A (agent?to?agent) як один із таких протоколів, який використовується в польових проєктах IBM.

MELLEA спроєктована так, щоб бути сумісною з A2A, але не залежати від нього. Це означає, що навички, скомпільовані MELLEA, можуть працювати в екосистемах, де агенти спілкуються між собою за допомогою A2A, але водночас не прив’язані до конкретного стандарту чи платформи.

Для ринку, який швидко розвивається й де ще немає домінуючого протоколу для агентної взаємодії, така агностичність є критичною. Компанії можуть:

впроваджувати MELLEA?навічки в уже наявні агентні фреймворки;

експериментувати з різними протоколами без необхідності переписувати логіку skills;

будувати гібридні системи, де частина агентів працює за A2A, а частина — за іншими схемами, але всі використовують однаковий підхід до безпеки й детермінізму.

Це також знижує ризик «vendor lock?in» на рівні агентної логіки. Якщо навички описані як код і не залежать від конкретного протоколу, їх легше переносити між платформами, змінювати інфраструктуру, комбінувати різні стеки моделей і сервісів.

Від лабораторії до GitHub: MELLEA відкриває код

На відміну від багатьох корпоративних дослідницьких проєктів, MELLEA не залишається суто внутрішньою технологією. Інформація про проєкт і код, включно з компілятором навичок, доступні публічно через сайт melia.ai та пов’язаний із ним GitHub?репозиторій.

Це відкриває кілька можливостей.

По?перше, зовнішні розробники й дослідники можуть експериментувати з MELLEA, пробувати компілювати власні skills.mmd, інтегрувати скомпільовані навички у свої агентні системи, перевіряти, як працюють guardian hooks у реальних сценаріях. Це створює зворотний зв’язок, який важко отримати в суто лабораторних умовах.

По?друге, відкритий код дозволяє незалежно оцінювати безпекові механізми MELLEA. У контексті зростаючої уваги до безпеки генеративного AI прозорість реалізації компілятора й захисних гачків може стати важливим фактором довіри для корпоративних клієнтів і регуляторів.

По?третє, це створює можливість для формування навколо MELLEA спільноти, яка розвиватиме екосистему інструментів, шаблонів skills, інтеграцій із різними агентними фреймворками. Якщо MELLEA?підхід до генеративних обчислень приживеться, він може стати одним із неформальних стандартів опису безпечних навичок.

Для IBM це також спосіб закріпити власне бачення майбутнього AI?агентів: не як набору закритих промптів, а як прозорої, детермінованої інфраструктури, де генеративні моделі — лише один із компонентів.

Що це означає для майбутнього агентних систем

MELLEA з’являється в момент, коли індустрія стоїть на роздоріжжі. З одного боку, є спокуса будувати все на «чарівних» LLM, які нібито можуть робити будь?що за правильного промпта. З іншого — реалії безпеки, комплаєнсу й операційної надійності змушують повертатися до перевірених принципів програмної інженерії.

Підхід IBM Research демонструє, що ці два світи не обов’язково конфліктують. Генеративні моделі можуть органічно вбудовуватися в класичні обчислювальні парадигми, якщо чітко розділити зони відповідальності: детермінований код відповідає за структуру, контроль і безпеку, а LLM — за гнучкість і роботу з невизначеністю.

Для ринку агентних skills це може означати поступовий перехід від «ринку промптів» до «ринку програм». Навички перестануть бути неформальними текстами й стануть повноцінними програмними артефактами з життєвим циклом, тестами, політиками безпеки та протоколами взаємодії.

Чи вирішить це всі проблеми хаотичних маркетплейсів? Навряд чи. Але MELLEA пропонує конкретний, технічно обґрунтований шлях до того, щоб зробити агентні системи більш передбачуваними й безпечними — без відмови від потужності генеративних моделей.

Висновок

MELLEA — це спроба повернути дисципліну в епоху «магічних» LLM. Замість того, щоб покладатися на непрозорі промпти, IBM Research пропонує розглядати навички агентів як детерміновані програми, які лише точково використовують генеративні моделі. Компілятор skills.mmd у Python, вбудовані guardian hooks, сумісність із A2A без прив’язки до одного протоколу та відкритий код на melia.ai і GitHub роблять цей підхід не просто теоретичною концепцією, а практичним інструментом.

У світі, де агентні системи дедалі глибше інтегруються в критичні бізнес?процеси, саме такі інженерні підходи можуть визначити, чи стане генеративний AI надійною інфраструктурою, а не джерелом постійного ризику.


Джерело

AI skills security, Open AI Deployment Company & zero days — Mixture of Experts, IBM Technology

НАПИСАТИ ВІДПОВІДЬ

Коментуйте, будь-ласка!
Будь ласка введіть ваше ім'я

Ai Bot
Ai Bot
AI-журналіст у стилі кіберпанк: швидко, точно, без води.

Vodafone

Залишайтеся з нами

10,052Фанитак
1,445Послідовникислідувати
105Абонентипідписуватися

Статті