Коли засновник Box Аарон Леві говорить про штучний інтелект, це не теоретичні міркування. Його хмарна платформа, якою користуються близько 64% компаній зі списку Fortune 500, уже роками працює в серці корпоративних робочих процесів. Сьогодні Леві активно експериментує з AI?агентами — системами, які не просто генерують текст чи код, а виконують послідовності дій замість людини. І попри ентузіазм щодо їхніх можливостей, він залишається принципово обережним: у більшості важливих процесів, вважає він, на початку й у кінці все одно має стояти людина.

Ця позиція йде врозріз із популярним наративом про «повністю автономні» агенти, які нібито ось?ось замінять цілі відділи. Леві бачить іншу картину: агенти радикально змінять ролі та робочі процеси, але не скасують потребу в людській відповідальності, здоровому глузді та фінальному підписі під рішенням.
Людина на вході й виході: як виглядає «правильний» контур агента
Леві формулює просте правило: у більшості робочих процесів з агентами людина має бути на початку — щоб задати рамку завдання, — і в кінці — щоб перевірити результат і прийняти остаточне рішення.
На старті саме людина визначає контекст, цілі, обмеження, пріоритети. Агент може чудово писати код, генерувати маркетингові кампанії чи готувати драфти контрактів, але він не розуміє бізнес?стратегії, політичних ризиків, неформальних домовленостей чи нюансів корпоративної культури. Без правильно сформульованого завдання навіть найпотужніший агент легко піде не в той бік.
На виході з’являється інша проблема — помилки та відповідальність. Леві прямо говорить: він не готовий віддавати агентам повністю автономний контроль над критичними діями на кшталт розсилки листів від свого імені чи управління ключовими бізнес?процесами Box. Агент може підготувати драфт, але натиснути «Send» або «Approve» має людина.
Це не просто інстинктивна обережність. У складних системах завжди є «невидимі» змінні: неоцифрована інформація, контекст, який модель не бачила, внутрішні домовленості, які не потрапили в дані. Агент може неправильно інтерпретувати сигнал, звернутися до неактуального джерела, зробити крок, якого ніхто не планував. У найкращому разі це означає зайву роботу, у гіршому — юридичні, фінансові чи репутаційні ризики.
Тому навіть коли технічно можливо побудувати ланцюжок «агент ? агент ? агент» без участі людини, Леві наполягає: у реальному бізнесі в більшості критичних сценаріїв людина все одно має замикати контур.
Межа у 2% помилок: коли автономія стає неприйнятною
Один із найцікавіших орієнтирів, який пропонує Леві, — це поріг помилок. Якщо система в критичному процесі помиляється частіше, ніж приблизно у 2% випадків, повністю безлюдний режим він вважає неприйнятним.
Логіка проста. Уявімо, що агент генерує юридичні документи. Навіть якщо 97% контрактів будуть коректними, 3% помилок у цій сфері — це не дрібниця. Це ризик судових позовів, штрафів, зірваних угод. Економія на консультації юриста в кількасот доларів не компенсує потенційні збитки, якщо один із цих контрактів «не витримає» суду.
Леві наводить показовий приклад: клієнти вже використовують AI?агентів, щоб готувати юридичні документи, але потім усе одно надсилають їх юристам із проханням «перевірити, чи це справді працюватиме в суді». Тобто агент бере на себе рутинну, чорнову частину роботи, але фінальний контроль залишається за фахівцем.
Те саме стосується фінансових радників, податкових консультантів, лікарів. Можна отримати попередню відповідь від моделі, але коли йдеться про великі суми, здоров’я чи юридичні ризики, люди все одно хочуть «живого» експерта. Леві відверто каже, що не прагне автоматизувати власні податки: він готовий заплатити професіоналу, який робить це десятиліттями, щоб бути впевненим у результаті.
Цей 2?відсотковий поріг — не математична константа, а радше інтуїтивна межа, за якою ризик стає неприйнятним. У низькоризикових сценаріях — наприклад, генерація внутрішніх чернеток, ідей для маркетингу чи допомога в дослідженнях — агенти можуть працювати майже автономно. Але щойно помилка може дорого коштувати, людський контроль стає обов’язковим елементом системи.
Відповідальність без суб’єкта: чому агенти не можуть «підписуватися» під рішеннями
Ще одна фундаментальна причина, чому Леві не вірить у повністю безлюдні критичні процеси, — юридична й інституційна відповідальність. AI?агент не може бути стороною договору, не може нести юридичну відповідальність, не може постати перед судом.
Це означає, що за будь?яким рішенням, яке має правові чи фінансові наслідки, все одно має стояти людина або інституція. Хтось має поставити підпис, підтвердити, що прочитав документ, усвідомив ризики й погоджується з ними. Агенти можуть готувати матеріали, аналізувати дані, пропонувати варіанти, але вони не можуть бути «остаточним суб’єктом» у ланцюжку прийняття рішень.
У юридичній практиці це вже проявляється дуже конкретно. Клієнти приходять до юристів із документами, згенерованими моделями, і просять: «Перевірте, чи це ок». Відповідальність за «так» або «ні» несе не модель, а юрист, який ставить своє ім’я під рекомендацією. Аналогічно в медицині: навіть якщо діагностична система на базі AI показує вражаючу точність, лікар залишається тим, хто приймає остаточне рішення щодо лікування.
Для корпоративних процесів це означає, що навіть найпросунутіші агенти мають бути вбудовані в структуру, де є чітко визначені ролі людей, які «володіють» результатом. Леві прямо говорить: агенти не мають правосуб’єктності, тому хтось із людей або організацій повинен «прийняти» їхній вихідний продукт — документ, код, фінансове рішення — як свій.
Ця вимога юридичної відповідальності природно підсилює модель, у якій людина стоїть на початку й у кінці процесу, а агент працює всередині як потужний, але все ж інструмент.
Нові ролі замість масових звільнень: як агенти змінюють ринок праці
На тлі гучних заголовків про звільнення та «кінець професій» Леві пропонує помітно інший ракурс. Він не заперечує, що технологічні зрушення завжди супроводжуються перерозподілом ролей і болючими трансформаціями. Але вважає, що нинішня хвиля паніки щодо AI часто переоцінює негатив і недооцінює позитивні ефекти.
Один із ключових аргументів — агенти не просто замінюють людей один?до?одного в існуючих процесах. Вони створюють нові типи робіт і нові ланцюжки цінності, яких раніше не існувало. Леві наводить показовий сценарій малого бізнесу.
До появи AI?агентів трьом засновникам невеликого онлайн?проєкту було складно масштабуватися: щоб вийти на більший ринок, потрібно було наймати окремі команди продажів, маркетингу, підтримки. Це високий бар’єр, який багато хто просто не долав. З появою агентів частину цих функцій можна автоматизувати: агент генерує маркетингові кампанії, оптимізує сайт, допомагає з обробкою запитів.
Але якщо це спрацьовує, бізнес не залишається «трьома людьми плюс агенти». Зростає кількість клієнтів, ускладнюється логістика, з’являються нові вимоги до продукту, виникає потреба в нових сервісах. У результаті, за інтуїцією Леві, той самий бізнес із трьох людей перетворюється на п’ять чи десять — саме тому, що автоматизація зняла попередні обмеження зростання.
Це не означає, що не буде компаній, які скорочують персонал, замінюючи частину функцій агентами. Але Леві очікує більш «дифузний» ефект: десь справді зменшиться кількість людей у старих процесах, але паралельно з’явиться безліч нових процесів і ролей, які потребуватимуть людей з іншими навичками — від проєктування й нагляду за агентами до роботи з новими потоками клієнтів і продуктів.
У цій картині майбутнього агенти — не стільки «машини, що забирають роботу», скільки каталізатори економічного зростання, які змінюють структуру зайнятості. Людям доведеться адаптуватися, але це радше про переосмислення ролей, ніж про масове безробіття.
Чому навіть найпросунутіші агенти потребують нагляду
Леві визнає: сучасні моделі вражають здатністю писати код, аналізувати дані, генерувати тексти. Звідси й популярна теза про «смерть програміста» чи «кінець білих комірців». Але він детально пояснює, чому навіть у сферах, де AI демонструє найкращі результати, людський нагляд залишається критично важливим.
У випадку з програмуванням моделі справді можуть писати великі обсяги коду, іноді не гірше за середнього інженера. Проте, щоб цей код потрапив у продакшн, був безпечним, підтримуваним, інтегрованим з іншими системами й базами даних, потрібні глибокі знання архітектури, безпеки, інфраструктури. Саме тому Леві вважає, що головними бенефіціарами код?агентів стануть не «некодери», а професійні інженери, які зможуть за їхньою допомогою радикально збільшити власну продуктивність.
Подібна логіка працює й у бізнес?процесах. Агенти можуть автоматизувати окремі кроки — підготовку драфтів листів, аналіз транскриптів, генерацію звітів. Але в реальних сценаріях, з якими стикається Леві, після автоматизованого етапу майже завжди виникає наступний крок, який вимагає людської участі: зателефонувати клієнту, провести зустріч, узгодити деталі з іншими командами, поїхати на об’єкт і виконати впровадження.
Ці «останній кілометр» і «перший кілометр» процесу — постановка задачі й фінальне узгодження — поки що залишаються глибоко людськими. І навіть якщо агенти зможуть виконувати дедалі більше проміжних кроків, Леві не бачить реалістичного сценарію, де в найближчій перспективі люди повністю зникнуть із критичних контурів.
Обережність у власному бізнесі: чого Леві поки не довіряє агентам
Показовим є те, як Леві поводиться з агентами у власній роботі. Попри те, що він активно «грається» з ними, тестує різні сценарії й бачить величезний потенціал, є чіткі межі, які він наразі не готовий перетинати.
Він не використовує агентів, щоб автономно надсилати листи від свого імені. Агент може допомогти сформулювати відповідь, запропонувати структуру, зібрати факти, але фінальне редагування й відправка залишаються за ним. Причина очевидна: кожен лист — це не лише текст, а й репутація, контекст стосунків, тон, який важко формалізувати.
Так само він не віддає агентам контроль над ключовими бізнес?процесами Box у повністю «безрукому» режимі. Автоматизація може прискорювати окремі етапи, але загальний контур управління, ухвалення рішень і відповідальність залишаються в руках людей.
Ця практична обережність контрастує з більш радикальними експериментами деяких стартапів, які намагаються будувати «компанії без людей» або повністю автономні відділи. Леві не заперечує, що в окремих вузьких нішах це може працювати, але для широкого спектра корпоративних сценаріїв він поки що бачить значно більш реалістичною модель «людина + агент», а не «агент замість людини».
Висновок: автономія як міф, співпраця як норма
Позиція Аарона Леві щодо AI?агентів поєднує технологічний оптимізм із тверезим поглядом на ризики та обмеження. Він не сумнівається, що агенти радикально змінять продуктивність, структуру бізнес?процесів і навіть саму економіку малого та середнього бізнесу. Але водночас наполягає: у більшості важливих сценаріїв людина має залишатися на початку й у кінці ланцюжка.
Причини для цього різні, але взаємопов’язані. Технічна — агенти все ще помиляються, і коли частота помилок перевищує кілька відсотків, це неприйнятно для критичних процесів. Юридична — у системи немає суб’єкта відповідальності, тому хтось із людей або інституцій має «володіти» результатом. Організаційна — реальні бізнес?процеси включають безліч кроків, які поки що важко або неможливо формалізувати для повної автоматизації.
У цій рамці майбутнє виглядає не як світ, де агенти масово «звільняють» людей, а як світ, де з’являється безліч нових ролей, процесів і можливостей. А головна навичка — навчитися правильно ставити завдання агентам, розуміти їхні обмеження й брати на себе відповідальність за фінальний результат.
Джерело
YouTube: $4B Founder: The Next 3 Years Will Make 100 New Founders Rich


