![]()
У розмові з Axios співзасновник Anthropic Джек Кларк окреслює амбіцію, яка виходить далеко за межі запуску нових моделей штучного інтелекту. Anthropic створила окрему структуру — Anthropic Institute — щоб заздалегідь виносити на публічне обговорення те, що сьогодні бачать лише в лабораторіях: від експериментів із кіберзахистом до ранніх сигналів економічних зрушень. Мета інституту — допомогти суспільству встигнути за технологією, яка може одночасно посилювати кіберризики, ламати ринки праці й створювати безпрецедентну «надлишковість» можливостей у науці та сервісах.
Від «лабораторної таємниці» до публічної інфраструктури безпеки
Anthropic Institute задуманий як відповідь на просту, але незручну реальність: найважливіша інформація про можливості й ризики передових AI-систем сьогодні концентрується всередині кількох компаній. Кларк прямо говорить, що одна з причин створення інституту — вивести «лабораторні» знання назовні, щоб світ міг приймати кращі рішення щодо штучного інтелекту.
Показовий приклад — експериментальна система Mythos. Це модель, яку Anthropic тестує разом із великими компаніями, організаціями та урядом США як інструмент кібероборони. Усередині лабораторії було зрозуміло: Mythos має «страшенно потужні» можливості кіберпроникнення. Саме тому компанія з самого початку ставилася до неї як до технології, з якою потрібно поводитися максимально обережно.
Однак замкнути таку систему в сейфі — теж не вихід. Anthropic намагається знайти проміжний шлях: обмежене, контрольоване розгортання серед ретельно відібраних партнерів, щоб одночасно вчитися на реальному використанні й не допустити неконтрольованого витоку можливостей. За словами Кларка, у «напівдикому» середовищі поки що не було інцидентів, але Mythos і надалі залишається «handle-with-care» технологією.
Саме тут і з’являється роль Anthropic Institute: створити механізми, завдяки яким інформація про такі системи, як Mythos, не залишатиметься привілеєм кількох лабораторій, а стане ресурсом для ширшої спільноти — від політиків до корпоративних команд безпеки. Ідея полягає не лише в тому, щоб попередити про ризики, а й у тому, щоб разом шукати рішення.
Mythos і Glass Wing: спроба зробити кіберпростір «обороно-домінантним»
Ключова стратегічна лінія Anthropic — зробити світ «defense dominant», тобто таким, де оборона від AI-посилених загроз — кібер- і біологічних — випереджає наступальні можливості. Це різко контрастує з нинішнім станом кіберпростору, де часто дешевше й простіше атакувати, ніж захищатися.
Mythos — це практичний тест цієї концепції в кіберсфері. Модель, яка «набагато краще розуміє кібердомен», використовується для того, щоб виявляти вразливості, моделювати атаки, посилювати захист інфраструктури партнерів. Важливий момент: Anthropic не намагається монополізувати цю спроможність, а, навпаки, шукає «спільноту» — сукупність урядових структур, корпорацій та інших організацій, яким можна безпечно передавати такі інструменти й разом працювати над проблемою.
Паралельно Anthropic розгортає ініціативу Glass Wing. Її завдання — озброїти «найзначущі компанії та уряд США» засобами для побудови обороно-домінантного кіберсередовища на базі передових AI-систем. Якщо Mythos — це, умовно, «двигун», то Glass Wing — спроба перетворити цей двигун на інфраструктуру: методики, протоколи, інтеграції, які дозволяють системно підвищувати стійкість великих організацій.
Кларк наголошує, що цей підхід доведеться масштабувати й на інші домени, не лише кібер. Якщо AI здатен посилювати ризики в біології чи інших чутливих сферах, суспільству знадобиться «м’яз», який уміє будувати обороно-домінантні середовища скрізь, де з’являються нові потужні інструменти.
Чому Anthropic не хоче світу, де весь AI — «небезпечний за замовчуванням»
Парадокс Anthropic полягає в тому, що компанія одночасно демонструє обережність щодо таких систем, як Mythos, і виступає проти сценарію, де будь-яка AI-технологія автоматично вважається небезпечною. Кларк прямо попереджає: якщо ми прийдемо до режиму, де «всі AI-технології потрібно обробляти з надобережністю», це серйозно ускладнить широке поширення їхніх переваг.
Anthropic Institute бачить своє завдання в тому, щоб розірвати цю зв’язку. Замість тотальної заборони — розробка «міцних запобіжників і інтервенцій», які дозволять упевнено поширювати потужні системи серед ширшого кола користувачів. Йдеться не лише про технічні обмеження, а й про політику доступу, процедури аудиту, моделі відповідальності.
Це прагматичний підхід до дифузії технологій: визнати, що повністю зупинити розвиток AI неможливо, і зосередитися на тому, щоб зробити його розповсюдження керованим. Для компанії на кшталт Anthropic це ще й спосіб уникнути концентрації влади: якщо тільки кілька гравців можуть безпечно працювати з передовими моделями, вони отримують непропорційний вплив на економіку й політику.
У цьому сенсі Anthropic Institute — спроба інституціоналізувати «відкритість із запобіжниками»: не просто публікувати дослідження, а будувати сталі канали обміну даними, досвідом і технологіями між лабораторіями, урядами та бізнесом.
Економічні «сейсмографи»: як Anthropic хоче ловити ранні сигнали зрушень
Якщо в кіберсфері Anthropic робить ставку на обороно-домінантні системи, то в економіці інститут позиціонує себе як своєрідний «сейсмограф» майбутніх зрушень. Кларк відверто каже: він не може поєднати очікувані можливості AI через 2–3 роки з тим, що економіка залишиться такою, як сьогодні. «Ніхто, з ким я говорив, не може», — додає він.
Звідси — завдання для Anthropic Institute: шукати ранні сигнали значних змін і деструкцій, пов’язаних із AI, і заохочувати уряди реагувати на них. Це фактично елемент нової промислової політики: замість того, щоб чекати, поки хвиля автоматизації накриє ринки праці, інститут хоче заздалегідь показувати, де саме починає хитатися ґрунт.
Принципово важливо, що ці дані не планують тримати всередині компанії. Інститут має «широко ділитися ранніми сигналами» з зовнішніми експертами, щоб суспільство бачило зміни так само рано, як і дослідники в лабораторіях. Це може включати аналіз того, які професії першими відчувають тиск автоматизації, які галузі отримують непропорційні вигоди, де виникають нові вузькі місця в регуляції чи інфраструктурі.
Паралельно інститут збирається ставити «незручні запитання» й шукати практичні відповіді: як будувати економіку навколо «нової форми надлишковості», яка може прийти швидше, ніж очікується. Якщо AI різко здешевить інтелектуальну працю в низці сфер, традиційні моделі зайнятості, оподаткування й соціальної підтримки можуть виявитися неготовими.
Anthropic не пропонує готових рецептів, але чітко окреслює напрямок: від моніторингу до політики. Інститут не лише фіксуватиме зміни, а й «заохочуватиме уряд допомагати реагувати» — від програм перекваліфікації до ширших соціальних механізмів підтримки.
Робота, що зникає, і робота, яку AI примножує
На тлі розмов про загрозу масового безробіття Кларк пропонує більш нюансовану картину. Він очікує, що AI «масово примножить» кількість робочих місць у сферах, де люди віддають перевагу взаємодії з людьми: викладання, догляд, інші «людиноцентричні» професії. Водночас інші види робіт будуть «більш безпосередньо» під ударом автоматизації.
Це не просто оптимістичний наратив про «нові робочі місця замість старих». Anthropic Institute планує системно вивчати, як саме працюватимуть перекваліфікація й рескілінг у такому середовищі. Якщо AI дійсно здатен швидко витісняти людей із певних ролей, потрібні не лише курси, а й продумані соціальні програми, які допоможуть людям перейти в «нову економіку».
Йдеться про два рівні адаптації. Перший — індивідуальний: як конкретна людина, чия професія змінюється або зникає, може отримати нові навички й знайти себе в іншій сфері. Другий — системний: як держава й бізнес можуть спроєктувати інститути, що підтримують такі переходи, не залишаючи людей наодинці з ринком.
Кларк підкреслює, що Anthropic «планує успіх» технології. Тобто інститут виходить із припущення, що AI стане настільки потужним, як очікується, а проблеми з безпекою й зловживаннями вдасться принаймні частково взяти під контроль. У такому сценарії головним недопрацюванням може стати саме відсутність продуманих відповідей на питання: що робити з надлишком можливостей і нерівномірним розподілом вигод.
Саме тому інститут хоче «відкрити цю розмову» зараз, а не тоді, коли перші великі хвилі економічних зрушень уже пройдуть.
Від оборони до геополітики: чому успіх компаній не дорівнює безпеці світу
Хоча в цьому фрагменті розмови Кларк лише торкається геополітичного виміру, його позиція чітка: навіть якщо американські компанії досягнуть успіху в AI, це не гарантує, що світ стане стабільнішим. Потрібен ширший підхід, який нагадує логіку холодної війни, коли країни з «екзистенційними технологіями» були змушені вибудовувати канали діалогу.
У випадку AI це означає, що обороно-домінантні стратегії, такі як Mythos і Glass Wing, мають доповнюватися міжнародними механізмами довіри й координації. Інакше технологія, здатна радикально посилювати як оборону, так і наступ, залишиться джерелом нестабільності, навіть якщо окремі держави чи компанії використовують її відповідально.
Anthropic Institute, з його акцентом на обмін даними й колективне вироблення рішень, можна розглядати як один із можливих прототипів таких механізмів — принаймні на рівні міждержавних і корпоративних партнерств. Але Кларк недвозначно натякає: без ширшого геополітичного контексту питання про глобальний вплив AI залишаться відкритими.
Висновок: інститут як тест на зрілість епохи AI
Anthropic Institute — це спроба перевести дискусію про штучний інтелект із площини «нових фіч і моделей» у площину інституцій і правил. Через Mythos і Glass Wing компанія тестує, чи можна зробити кіберпростір обороно-домінантним до того, як AI-інструменти масово опиняться в руках зловмисників. Через економічні «ранні попередження» інститут прагне виявити й пом’якшити шоки на ринку праці до того, як вони стануть політично некерованими.
У центрі цієї стратегії — відмова як від техноутопізму, так і від технопаніки. Anthropic виходить із того, що AI принесе і надлишок можливостей, і реальні ризики, і що обидва аспекти потрібно планувати одночасно. Обороно-домінантний світ, ранні економічні сейсмографи, програми перекваліфікації й соціальної підтримки — це елементи однієї картини: спроби зробити епоху AI керованою, а не вибуховою.
Чи вдасться це — залежить не лише від Anthropic. Але поява інституту, який відкрито декларує такі цілі, — ознака того, що частина індустрії готова мислити не тільки в категоріях продуктів і ринкових часток, а й у категоріях довгострокової стійкості суспільства.


