![]()
IBM Think 2026 у Бостоні став майданчиком не лише для гучних продуктових анонсів, а й для розмови про те, наскільки далеко бізнес готовий зайти в довірі до штучного інтелекту. У спеціальному випуску подкасту Mixture of Experts, записаному наживо з конференції, керівники IBM та запрошені експерти обговорили результати нового CEO‑дослідження IBM Institute for Business Value (IBV) і те, як саме компанії намагаються поєднати амбіції з ризиками.
У центрі дискусії — цифра, яка може стати маркером епохи: 64% генеральних директорів у світі вже комфортно ухвалюють великі стратегічні рішення на основі рекомендацій, згенерованих ШІ. Але за цим оптимізмом ховається крихка довіра, яка може різко зламатися після першого масштабного інциденту. IBM пропонує відповідь: жорстке управління, пояснюваність і простежуваність як обов’язкові елементи будь‑якої AI‑системи, від аналітичних моделей до агентних платформ.
64% CEO довіряють ШІ у стратегії — але на чому стоїть ця довіра
Нове CEO‑дослідження IBM Institute for Business Value за 2026 рік охопило близько 2 000 керівників компаній по всьому світу. Один із ключових висновків: 64% з них заявили, що почуваються комфортно, ухвалюючи великі стратегічні рішення на основі AI‑висновків.
Це не лише про автоматизацію рутинних задач чи рекомендації для маркетингу. Йдеться про рішення, які впливають на інвестиції, трансформацію бізнес‑моделі, зміну ланцюгів постачання, вихід на нові ринки. Фактично, ШІ стає одним із повноцінних учасників стратегічних дискусій у радах директорів.
Водночас експерти нагадують: сама ідея покладатися на машинні рекомендації в управлінні бізнесом не народилася разом із генеративними моделями. Протягом років компанії використовували традиційні моделі машинного навчання для оцінки кредитних ризиків, оптимізації запасів, прогнозування попиту, виявлення шахрайства. У банках, ритейлі, логістиці та виробництві рішення, підказані алгоритмами, давно впливають на мільярдні потоки.
Різниця сьогодні в тому, що:
по‑перше, нові моделі стали набагато доступнішими для широкого кола користувачів — від розробників до топменеджерів, які взаємодіють із ними через природну мову;
по‑друге, рекомендації ШІ перестали бути «чорною скринькою» десь у бекенді й вийшли на передній план у вигляді чат‑інтерфейсів, агентів і панелей керування.
Це створює новий психологічний ефект: керівники не просто отримують цифри в дашборді, а спілкуються з системою, яка формулює поради, пояснює сценарії, пропонує варіанти. Відчуття «співрозмовника» підсилює довіру — але водночас робить її вразливішою до помилок.
Від класичних моделей до агентних систем: чому пояснюваність стає критичною
IBM активно просуває концепцію так званого agentic AI — систем, які не лише генерують текст чи код, а й самостійно планують кроки, викликають інструменти, інтегруються з бізнес‑процесами та IT‑ландшафтом. На Think 2026 це проявилося в низці анонсів, від інфраструктурних рішень до внутрішніх агентів на кшталт Bob, які допомагають розробникам, консультантам і бізнес‑командам.
У такому середовищі питання «чому система порадила саме це?» перестає бути академічним. Якщо агентна платформа пропонує змінити конфігурацію інфраструктури, перерозподілити бюджети чи змінити політику запасів, керівники хочуть бачити не лише результат, а й шлях до нього.
IBM робить акцент на двох принципах: пояснюваність і простежуваність. Для агентних систем це означає можливість чітко показати, які саме агенти запускалися, які інструменти вони викликали, які дані використовувалися і як крок за кроком формувалася рекомендація.
У традиційних моделях машинного навчання пояснюваність часто зводилася до важливості ознак, графіків і метрик. У світі агентів цього вже недостатньо. Бізнесу потрібен «журнал подій» на рівні дій: який агент ініціював аналіз, які API були викликані, які зовнішні системи залучені, які проміжні висновки відкинуті. Така деталізація важлива не лише для аудиту, а й для оперативного розбору інцидентів, коли щось іде не так.
Це особливо актуально в умовах, коли ШІ інтегрується в критичні процеси — від управління інфраструктурою до ланцюгів постачання. Якщо агентна система автоматично генерує інфраструктуру як код, керує сценаріями високої доступності чи перемиканням між хмарою і on‑premise, кожен крок має бути відтворюваним і перевірюваним. Інакше довіра швидко перетворюється на ризик.
Governance з першого дня: чому «прикрутити потім» більше не працює
Одна з найжорсткіших тез, яку IBM послідовно повторює, стосується управління ШІ: governance не може бути надбудовою, яку додають у кінці проєкту. Безпека, відповідність регуляціям, контроль доступу, політики використання даних і контенту мають бути вбудовані в архітектуру з першого дня.
На практиці це означає кілька рівнів захисту.
Перший — дизайн‑рівень. Які дані взагалі дозволено використовувати для навчання й інференсу? Як розмежовані середовища для експериментів і продакшену? Як обмежується доступ до чутливої інформації в запитах до моделей? Відповіді на ці питання мають бути зафіксовані в політиках і реалізовані технічно, а не залишені на розсуд окремих команд.
Другий — операційний. Як саме відстежуються запити, відповіді, інструментальні виклики агентів? Які є механізми виявлення аномалій, небезпечних патернів, спроб обійти обмеження? Тут IBM робить ставку на автоматизацію: так само, як сучасні хмарні середовища керуються через код і політики, AI‑середовища мають отримати аналогічний рівень контрольованості.
Третій — продуктовий. Особливо гостро це проявляється в публічних чатботах і асистентах, які взаємодіють із клієнтами. IBM прямо говорить про необхідність структурованих фреймворків і запобіжників, які не дозволять системі видавати небезпечний, образливий чи юридично токсичний контент. Ідеться не лише про фільтри «поганих слів», а про цілісні сценарії поведінки: які теми заборонені, як система має реагувати на провокації, як обмежується генерація порад у чутливих сферах.
Ключова думка: швидкість впровадження не може бути виправданням для відсутності governance. Навіть якщо бізнес прагне «бігти тисячу метрів на годину», як образно висловлюються учасники дискусії, це не звільняє від обов’язку спочатку встановити захисні бар’єри. Тим більше, що, за оцінками IBM, впровадження базових рамок управління не є надмірно складним чи повільним — за умови, що воно закладене в план із самого початку.
Публічні чатботи як тест на зрілість: де проходить межа безпечного діалогу
Публічні чатботи стали одним із найвидиміших втілень генеративного ШІ. Вони ж — одне з головних джерел репутаційних ризиків. Історія вже знає приклади, коли відкриті системи швидко починали генерувати токсичний, дискримінаційний або просто абсурдний контент під впливом користувацьких запитів.
IBM пропонує дивитися на публічні AI‑інтерфейси як на об’єкти, що потребують такого ж рівня регуляції, як і будь‑який інший канал взаємодії з клієнтом. Якщо компанія не дозволила б своєму оператору кол‑центру давати медичні поради, юридичні консультації чи коментувати політичні теми, те саме має стосуватися й чатбота.
Тут у гру вступають структуровані фреймворки й guardrails — набір правил, які визначають, що система може й не може робити. Вони включають обмеження на теми, типи контенту, стилі відповіді, а також механізми ескалації до людини в складних або ризикових випадках. Важливо, що ці рамки мають бути не лише декларативними, а й технічно реалізованими в ланцюжку обробки запитів.
Для бізнесу це тест на зрілість: чи готова організація інвестувати в розробку й підтримку таких фреймворків, чи сприймає чатбот як «іграшку», яку можна швидко запустити без глибокого аналізу наслідків. У другому випадку ризик репутаційної кризи або юридичних претензій різко зростає.
Крихка довіра й очікуваний «великий інцидент» 2026 року
Попри оптимістичні цифри з CEO‑дослідження, учасники дискусії наголошують: довіра до ШІ в стратегічних рішеннях надзвичайно крихка. Вона формується поступово — через успішні кейси, зрозумілі процеси, прозорі моделі прийняття рішень. Але зруйнувати її може один масштабний інцидент.
У галузі вже лунають прогнози, що 2026 рік може стати роком великого AI‑інциденту безпеки, який змусить компанії переосмислити ставлення до ризиків. Йдеться не про дрібні помилки в чатботах, а про серйозні порушення — наприклад, витік чутливих даних через некоректно налаштовані агентні системи, маніпуляцію бізнес‑процесами через скомпрометовані інструментальні виклики або масштабну експлуатацію вразливостей у ланцюжках AI‑інтеграцій.
У такому сценарії організації, які сьогодні демонструють високий рівень довіри до AI‑рекомендацій, можуть різко «натиснути на гальма». Регулятори посилять вимоги, ради директорів стануть обережнішими, а інвестиції в безпеку й governance зростуть. Для частини компаній це буде болючим, але необхідним «перезавантаженням» підходів.
IBM фактично закликає готуватися до такого сценарію вже зараз. Логіка проста: якщо вважати великий інцидент неминучим, то завдання відповідальних гравців — мінімізувати його масштаб і системні наслідки. Це означає:
будувати AI‑архітектури з припущенням, що окремі компоненти можуть бути скомпрометовані;
забезпечувати сегментацію, мінімально необхідні привілеї та контроль ланцюжків доступу;
мати чіткі плани реагування на інциденти саме в контексті AI‑систем, а не лише класичної кібербезпеки.
У цьому сенсі крихкість довіри — не аргумент проти впровадження ШІ, а нагадування, що кожен крок уперед має супроводжуватися посиленням захисту.
Уроки хмари: як зробити AI‑середовища такими ж керованими
Щоб пояснити своє бачення майбутнього AI‑управління, IBM звертається до досвіду хмарних технологій. Ще десять років тому перехід у хмару сприймався як ризикований крок: компанії боялися втратити контроль над даними, залежати від провайдерів, зіткнутися з витоками й простоями. Сьогодні ж зрілі хмарні середовища вважаються еталоном керованості й безпеки — за умови правильного дизайну й автоматизації.
IBM проводить пряму аналогію: AI‑середовища можуть пройти той самий шлях — від «дикого заходу» до структурованої, добре контрольованої інфраструктури. Ключ до цього — поєднання governance‑фреймворків і автоматизації.
З одного боку, потрібні чіткі політики: хто й як може використовувати моделі, які дані допускаються, які сценарії заборонені, як відбувається аудит. З іншого — ці політики мають бути реалізовані у вигляді коду, конфігурацій, автоматизованих перевірок і моніторингу. Саме так свого часу еволюціонувала хмара: від ручного налаштування до «інфраструктури як код» і політик, що застосовуються автоматично.
IBM стверджує, що за аналогічного підходу AI‑середовища можуть стати настільки ж надійними, як сучасні хмарні платформи. Це не означає відсутності інцидентів, але означає передбачуваність, відтворюваність і можливість швидко локалізувати й виправляти проблеми.
Для CEO, які сьогодні дивляться на ШІ як на джерело конкурентної переваги, це важливий сигнал: інвестиції в governance й автоматизацію — не «страховка на потім», а фундамент, без якого масштабування AI‑ініціатив неминуче впирається в стелю ризиків.
Баланс можливостей і ризиків як нова компетенція керівників
Ще один важливий мотив дискусії — роль особистої AI‑грамотності керівників. На Think 2026 прозвучала формула: швидкість впровадження ШІ в організації прямо залежить від того, наскільки глибоко топменеджмент сам користується цими технологіями й розуміє їхні можливості та обмеження.
Це має прямий зв’язок із темою довіри й ризиків. Керівник, який бачить ШІ лише як абстрактний тренд, схильний або переоцінювати його можливості, або, навпаки, блокувати ініціативи через страх. Той, хто працює з інструментами особисто, краще розуміє, де потрібна людська перевірка, які задачі можна делегувати агентам, а де ризик надто високий.
У цьому контексті governance перестає бути суто технічною темою. Це стає елементом управлінської культури: як компанія приймає рішення про впровадження нових AI‑сервісів, хто відповідає за оцінку ризиків, як будуються діалоги між IT, безпекою, бізнес‑підрозділами й юридичною службою.
CEO‑дослідження IBM показує, що більшість керівників уже готові покладатися на ШІ в стратегії. Наступний крок — зробити так, щоб ця готовність спиралася не на інтуїцію чи моду, а на зрілу систему управління, яка витримає і зростання масштабів, і неминучі кризи.
Висновок: довіра до ШІ — це не стан, а процес
Результати CEO‑дослідження IBM IBV 2026 свідчать: ШІ вже перетнув важливий психологічний поріг у корпоративному управлінні. Більшість генеральних директорів не просто експериментують, а готові приймати великі рішення, спираючись на машинні рекомендації.
Але ця довіра не є даністю. Вона формується на перетині трьох факторів: історичного досвіду використання аналітичних моделей, нових можливостей агентних систем і якості governance, який компанії закладають у свої AI‑архітектури. Без пояснюваності, простежуваності й вбудованих запобіжників навіть найпросунутіші моделі залишаються джерелом неприйнятного ризику.
IBM пропонує дивитися на ШІ через призму уроків хмари: лише структуроване управління й автоматизація можуть перетворити «дику» технологію на надійну інфраструктуру. У світі, де багато хто очікує великого AI‑інциденту вже в 2026 році, це може стати головною відмінністю між тими, хто вийде з кризи сильнішим, і тими, хто змушений буде різко згортати амбіції.
Для бізнесу це означає одне: час, коли можна було експериментувати з ШІ без серйозного обговорення безпеки й управління, минув. Довіра до AI‑рішень — це не раз і назавжди ухвалене рішення, а постійний процес, у якому технологічний прогрес має йти в ногу з відповідальністю.
Джерело
Live from Think 2026: AI operating model, VC funding & CAIO evolution — IBM Technology


