Швидкі відповіді від чатботів уже нікого не дивують. Новий етап — системи, які не лише «знають», а й реально щось роблять замість користувача. Канал IBM Technology на прикладі проєкту OpenClaw пояснює, як влаштовані AI-агенти, чим вони відрізняються від звичних LLM-чатів і які ризики з’являються разом із новими можливостями.
![]()
Від відповіді до дії: чим агент відрізняється від чатбота
Класичний сценарій взаємодії з LLM виглядає просто: користувач ставить запитання — модель генерує відповідь. Якщо потрібно, наприклад, надіслати листа чи запланувати зустріч, людина сама копіює текст, перемикається між вкладками, відкриває календар, вводить дані.
Модель може детально пояснити, як створити подію в календарі, але не зробить цього самостійно. Саме тут проходить межа між «знанням» і «дією».
AI-агент — це система, яка:
- поєднує LLM із набором інструментів (tools);
- може самостійно викликати ці інструменти;
- працює автономно в циклі «спланувати → виконати → перевірити результат».
Цей цикл називають agentic loop. На відміну від простого чатбота, агент не обмежується одноразовою відповіддю: він багаторазово міркує, виконує дії, аналізує результати й повторює цикл, доки завдання не буде виконано.
Як працює agentic loop: React-патерн у дії
Основний принцип роботи сучасних агентів описують як React-патерн (Reason + Act):
-
Надходить завдання
Запит може прийти з різних каналів — Slack, iMessage, WhatsApp, інших месенджерів чи внутрішніх систем. -
Формується контекст
Перед зверненням до LLM агент збирає все, що може бути корисним: - історію розмови;
- довгострокову пам’ять (попередні сесії, виконані завдання);
- системні інструкції (як поводитися, що дозволено, що заборонено);
-
список доступних інструментів.
-
Міркування (Reasoning)
LLM отримує цей контекст і вирішує, чи потрібно: - просто сформувати відповідь;
-
чи викликати один або кілька інструментів для отримання додаткових даних або виконання дій.
-
Дія (Act)
Якщо інструмент потрібен, агент може, наприклад: - виконати команду в терміналі;
- прочитати файл на диску;
- викликати зовнішній API;
- виконати веб-пошук.
Результат повертається в агент і додається до контексту.
- Спостереження й повторення
Агент знову звертається до LLM уже з оновленим контекстом. Цикл «міркування → дія → спостереження» повторюється, доки: - завдання не буде виконано;
-
або модель не вирішить, що інструменти більше не потрібні.
-
Фінальна відповідь
Після завершення циклу агент формує підсумкову відповідь і надсилає її користувачу в тому ж каналі, звідки прийшов запит.
Цей патерн лежить в основі більшості сучасних агентних фреймворків — від OpenClaw до інших систем, які будують автономні робочі процеси на базі LLM.
Архітектура OpenClaw: локальний хаб для особистого AI-асистента
OpenClaw позиціонують як один із найяскравіших прикладів «агентного» асистента. Це безплатний open source-проєкт, створений наприкінці 2025 року, який швидко набрав популярність на GitHub.
Локальний сервіс і модель «hub and spoke»
OpenClaw запускається як локальний сервіс на Node.js:
- на ноутбуці;
- у віртуальній машині;
- на Raspberry Pi чи іншому пристрої.
Система побудована за моделлю «hub and spoke» з центральним елементом — gateway:
- це завжди активний WebSocket-сервер;
- відповідає за маршрутизацію повідомлень;
- керує сесіями;
- дозволяє створювати кілька агентів;
- координує використання інструментів.
Інтеграції через адаптери
Спілкуватися з агентом можна через різні канали:
- Slack, Microsoft Teams, Discord;
- iMessage та інші платформи.
Щоб уніфікувати дані з різних джерел, OpenClaw використовує адаптери. Вони перетворюють вхідні повідомлення в єдиний внутрішній формат, який gateway уже може обробляти незалежно від джерела.
LLM, пам’ять і «душа» агента
LLM у OpenClaw може:
- працювати локально на тій самій машині;
- або бути віддаленою моделлю, до якої звертаються через API.
Для повноцінної роботи агенту потрібні не лише поточні запити, а й додаткові дані:
- бази даних для довгострокової пам’яті (історія завдань, контекст попередніх дій);
- шаблони промптів;
- конфігураційні файли на кшталт
agents.mdтаsoul.md, які описують: - роль агента;
- стиль взаємодії;
- його «роботу» та зону відповідальності.
Усе це проходить через gateway і потім передається в LLM як частина контексту.
Інструменти й «скіли»: як агент навчається працювати з вашим стеком
Найбільша сила OpenClaw — у шарі інструментів і навичок (skills), які визначають, що саме агент уміє робити.
Інструменти: браузер, термінал та інші можливості
OpenClaw має вбудовані інструменти, зокрема:
- браузер — для автоматизації дій у вебі;
- термінал — для виконання команд, запуску CLI-утиліт тощо.
Через ці інструменти агент може взаємодіяти з операційною системою та зовнішніми сервісами, виконуючи завдання, які раніше вимагали ручної роботи.
Skills: розширювані сценарії для будь-яких задач
Skills — це те, що робить OpenClaw гнучким персональним асистентом. По суті, це:
- папки з markdown-файлами;
- у яких описано, як виконувати конкретне завдання чи робочий процес.
Приклади можливостей, які можна реалізувати через skills:
- керування Trello-дошками;
- доступ і редагування Google Calendar;
- для інженерів — робота з Docker (збірка, запуск, тестування контейнерів);
- інтеграції з CRM, GitHub та іншими джерелами даних.
Важливий момент: OpenClaw не завантажує всі скіли в контекст LLM за замовчуванням — це швидко «заб’є» контекстне вікно. Натомість:
- агент передає моделі лише список доступних skills і короткі метадані;
- LLM сама обирає, які з них можуть бути корисними;
- за потреби агент «підтягує» повний опис конкретного скіла.
Цей підхід дозволяє масштабувати можливості агента без втрати ефективності.
Безпека AI-агентів: де проходить межа між асистентом і бекдором
Разом із можливістю «робити» замість користувача з’являються й серйозні ризики. OpenClaw працює локально, але має доступ до:
- файлової системи;
- терміналу;
- інтегрованих сервісів.
За неправильної конфігурації така система може перетворитися на потужний бекдор. Уже зараз у мережі є тисячі інстансів OpenClaw, відкритих в інтернет через:
- помилки в налаштуваннях;
- використання skills із шкідливим кодом.
Prompt injection: приховані інструкції в даних
Окрема категорія ризиків — prompt injection. Це типова вразливість для LLM-агентів:
- агент обробляє недовірені дані (лист, веб-сторінку тощо);
- усередині цих даних можуть бути приховані інструкції;
- модель може сприйняти їх як легітимні команди й виконати.
Без додаткових захисних механізмів агент здатен:
- передати конфіденційні дані;
- виконати небажані дії в терміналі чи через API.
Рекомендовані практики
Для безпечної роботи AI-агентів варто:
- запускати їх в ізольованому середовищі;
- ретельно перевіряти код і skills перед використанням;
- уникати прямого доступу до критичних систем без додаткових обмежень;
- шифрувати облікові дані перед передачею в LLM.
Від розмови до оркестрації: що змінюють агенти в роботі з AI
Довгий час взаємодія з AI зводилася до діалогу: модель могла пояснити, що робити, але не робила це сама. З появою агентів роль LLM змінилася:
- модель стає оркестратором, який:
- планує послідовність дій;
- викликає інструменти;
- аналізує результати;
- повторює цикл, доки завдання не виконано.
OpenClaw — лише один із підходів до побудови таких систем. Паралельно розвиваються й інші фреймворки, зокрема LangGraph та подібні рішення. Але базові патерни — agentic loop, React-підхід, розділення на gateway, інструменти й skills — уже стали спільним фундаментом для нового покоління AI-систем.
Разом із цим зростає й відповідальність: питання безпеки, управління доступами та практик розгортання стають не менш важливими, ніж самі можливості агентів.
Джерело
What is OpenClaw? Inside AI Agents, LLMs and the Agentic Loop — IBM Technology


