Субота, 18 Квітня, 2026
Додому Блог

NemoClaw: як навколо OpenClaw формується нова індустрія безпеки для агентів

0

OpenClaw — відкритий AI‑агентний фреймворк, створений розробником Петером Штайнбергером, який за п’ять місяців існування встиг стати одним із найстрімкіше зростаючих проєктів в історії GitHub. На тлі вибухового інтересу до агентів та одночасного шквалу звинувачень у «вродженій небезпечності» таких систем, навколо OpenClaw починає формуватися окрема екосистема безпеки. Один із найяскравіших прикладів — NemoClaw від NVIDIA, плагін і захисний шар, покликаний ізолювати дії OpenClaw у пісочниці та зменшити ризики.

a rack of electronic equipment in a dark room

Цей матеріал розбирає, що таке NemoClaw, як він працює як «оболонка безпеки» для OpenClaw, чому інтеграція з ним і сторонніми інструментами на кшталт Codex Security відбувається буквально за добу, і що це говорить про нову хвилю безпекових рішень для агентних систем.

Від «найнебезпечнішого» агента до полігону для безпекових інструментів

OpenClaw за дуже короткий час став не лише магнітом для розробників, а й мішенню для дослідників безпеки, компаній та університетів. Проєкт отримав понад тисячу повідомлень про вразливості, включно з десятками критичних, і фактично перетворився на полігон для тестування нових атак і захисних підходів.

Це створило парадоксальну ситуацію. З одного боку, OpenClaw активно критикують як «інфраструктуру, що запрошує зловмисників», з іншого — саме ця увага стимулює появу спеціалізованих інструментів безпеки. Для великих гравців це шанс продемонструвати, як їхні технології можуть приборкати складний, динамічний агентний стек, який працює з кодом, файлами, мережевими запитами й інтеграціями.

Саме в такому контексті NVIDIA запустила NemoClaw — окремий плагін і захисний шар, орієнтований спеціально на OpenClaw. Це не абстрактний «AI‑файрвол», а продукт, який з самого початку задуманий як надбудова над конкретним агентним фреймворком.

NemoClaw як пісочниця для OpenClaw: що означає «засандбоксити» агента

Ключова ідея NemoClaw — не змінювати внутрішню логіку OpenClaw, а обмежити середовище, у якому агент може діяти. За задумом, NemoClaw виступає плагіном і одночасно захисним шаром: він дозволяє запускати OpenClaw у пісочниці, де всі його дії — від виконання коду до доступу до файлів чи мережі — контролюються й обмежуються.

У традиційній безпеці пісочниця — це ізольоване середовище, де потенційно небезпечний код може виконуватися без ризику для основної системи. Для агентів на кшталт OpenClaw це ще важливіше: агент не просто виконує заздалегідь написаний код, а динамічно генерує дії, викликає інструменти, звертається до API й може змінювати свій власний контекст.

NemoClaw, за описом, дозволяє «засандбоксити» OpenClaw, тобто помістити його в контрольовану оболонку, де:

  • дії агента обмежені заздалегідь визначеними правилами;
  • спроби виходу за межі дозволених операцій можна виявляти й блокувати;
  • ризик того, що агент отримає надмірні повноваження в системі, суттєво зменшується.

Це особливо актуально для сценаріїв, де OpenClaw працює не як «іграшковий» помічник на локальному ноутбуці, а як частина корпоративної інфраструктури, має доступ до внутрішніх сервісів, документів, CI/CD‑ланцюжків чи хмарних ресурсів. У таких умовах навіть одна помилка в налаштуванні може перетворитися на серйозний інцидент.

NemoClaw пропонує інший підхід: замість того, щоб покладатися лише на «правильну конфігурацію» OpenClaw, створюється додатковий технічний бар’єр, який стримує потенційно небезпечні дії, навіть якщо агент чи його оточення поводяться не так, як очікувалося.

Швидка інтеграція з Codex Security: як виглядає новий цикл «атака–захист»

Показовим моментом у становленні цієї екосистеми стала історія з інтеграцією NemoClaw і Codex Security. Напередодні великого виступу NVIDIA, де планували показати NemoClaw, Петер Штайнбергер підключив NemoClaw до Codex Security — інструмента, який аналізує безпеку й шукає способи обійти захист.

Це сталося буквально за день до ключової доповіді. Попри стислі терміни, інтеграція запрацювала настільки швидко, що Codex Security зміг знайти п’ять різних способів вийти з «безпечної» пісочниці NemoClaw менш ніж за пів години.

Цей епізод важливий із кількох причин.

По‑перше, він демонструє, наскільки гнучкою є архітектура OpenClaw. Якщо сторонній безпековий продукт можна під’єднати до нового захисного шару за один день, це означає, що фреймворк уже фактично став платформою, до якої можна швидко підключати як інструменти захисту, так і засоби атаки та тестування.

По‑друге, історія показує, що навіть спеціалізовані пісочниці на кшталт NemoClaw не є «непробивними» — особливо якщо проти них працюють потужні моделі, орієнтовані на кібербезпеку. У випадку з Codex Security йшлося про доступ до «ненервованої» (unredacted) моделі, яка, за описом, значно сильніша в кібердоміні, ніж публічні варіанти. Саме тому вона й не доступна широкому загалу: її можливості в пошуку вразливостей вважаються занадто небезпечними.

По‑третє, швидкість, із якою були знайдені обхідні шляхи, підкреслює нову реальність для всіх, хто будує інфраструктуру безпеки навколо агентів. Якщо раніше аудит складних систем міг тривати тижні чи місяці, тепер спеціалізовані AI‑інструменти здатні за хвилини перебрати величезну кількість варіантів атак, включно з багатокроковими ланцюжками, які людині було б важко навіть сформулювати.

У результаті NemoClaw виявляється не стільки «остаточним рішенням», скільки елементом безперервного циклу: захисний шар — атака за допомогою AI — посилення захисту — нові атаки. І OpenClaw тут виступає як реальний, живий майданчик, де цей цикл розгортається в режимі реального часу.

Чому OpenClaw став магнітом для безпекових рішень

Той факт, що NVIDIA створює окремий продукт саме під OpenClaw, показує, що проєкт уже вийшов за межі «чергового open source‑репозиторію». Для індустрії безпеки він став одночасно й ризиком, і можливістю.

Ризиком — тому що OpenClaw позиціонується як агент, який може мати доступ до даних, виконувати код, взаємодіяти з інтернетом і сторонніми сервісами. Будь‑яка помилка в конфігурації або вразливість у ланцюжку залежностей може призвести до витоку даних, віддаленого виконання коду чи компрометації інфраструктури. До того ж, навколо OpenClaw уже з’являються реальні атаки, включно з кампаніями, де зловмисники поширюють підроблені пакети чи інсталятори з руткітами.

Можливістю — тому що OpenClaw став своєрідним «еталонним» агентним стеком, на якому можна демонструвати, як працюють нові захисні технології. Для компаній на кшталт NVIDIA це шанс показати, що їхні інструменти здатні:

  • ізолювати агентів у пісочницях;
  • виявляти й блокувати спроби виходу за межі дозволених дій;
  • інтегруватися з іншими системами безпеки, як‑от Codex Security, для автоматизованого пошуку вразливостей.

Важливо й те, що OpenClaw уже має широку базу користувачів і компаній, які його розгортають у реальних сценаріях. Серед них — великі вендори, хмарні провайдери, корпоративні користувачі. Для них питання безпеки не є теоретичним: їм потрібні конкретні інструменти, які можна підключити до існуючих інфраструктур, CI/CD‑процесів, систем моніторингу та реагування.

Саме тут NemoClaw і подібні продукти знаходять свою нішу. Вони не замінюють собою базові принципи безпечного розгортання (ізоляція, мінімальні привілеї, уважна робота з токенами й секретами), але додають ще один рівень контролю, який можна вбудувати в корпоративні процеси.

Від ручної перевірки до AI‑аудиту: як змінюється робота з вразливостями

Історія з NemoClaw і Codex Security показує ще одну важливу тенденцію: сам процес роботи з вразливостями в open source‑проєктах змінюється під впливом AI.

OpenClaw уже отримав понад тисячу повідомлень про вразливості, і значна частина з них, за оцінками, генерується або принаймні готується з допомогою агентів. Це створює подвійне навантаження. З одного боку, AI‑інструменти знаходять дедалі більш витончені ланцюжки атак, які люди могли б пропустити. З іншого — вони ж продукують велику кількість «шуму»: звітів, які формально виглядають серйозно, але в реальних умовах або не відтворюються, або не мають практичного впливу.

У такій ситуації інтеграція з інструментами на кшталт Codex Security стає не просто «цікавим експериментом», а потенційною необхідністю. Якщо AI‑агенти генерують потік звітів, логічно використовувати інші AI‑системи для їхньої перевірки, відтворення й пріоритизації. NemoClaw у цьому ланцюжку виступає як об’єкт захисту, Codex Security — як «червона команда», а OpenClaw — як платформа, на якій усе це змикається.

Поки що, однак, остаточне рішення про те, чи є вразливість реальною й наскільки вона критична, залишається за людьми. Автоматизація допомагає знаходити й відсіювати, але не знімає відповідальності з мейнтейнерів, які мають розуміти контекст розгортання, типові сценарії використання й реальні ризики для користувачів.

Це ще один аргумент на користь того, що екосистема безпеки навколо OpenClaw не може обмежуватися лише технічними плагінами. Потрібні також чіткі рекомендації з розгортання, освітні матеріали, кращі практики для різних сценаріїв (особистий агент, командний агент, інтеграція з чутливими системами), а також інструменти, які допомагають користувачам не лише «ставити пісочницю», а й розуміти її межі.

Новий ландшафт безпеки для агентів: що показує кейс NemoClaw

Поява NemoClaw і його швидка інтеграція з OpenClaw та Codex Security окреслює контури нового ландшафту безпеки для агентних систем.

По‑перше, безпека агентів стає окремим ринком. Якщо раніше основна увага приділялася моделям (точність, швидкість, вартість), то тепер з’являється попит на спеціалізовані захисні шари, пісочниці, моніторингові системи й інструменти тестування, заточені саме під агентні фреймворки.

По‑друге, open source‑проєкти на кшталт OpenClaw стають центрами тяжіння для цієї індустрії. Вони дають реальний код, реальних користувачів і реальні інциденти, на яких можна перевіряти й демонструвати можливості нових рішень. NemoClaw — показовий приклад: NVIDIA не створює абстрактний «AI‑файрвол», а випускає продукт, який прямо назвою й функціями прив’язаний до OpenClaw.

По‑третє, цикл «атака–захист» радикально прискорюється. Інструменти на кшталт Codex Security можуть за хвилини знаходити складні обхідні шляхи, змушуючи розробників захисних рішень постійно оновлювати свої підходи. NemoClaw у цьому сенсі — не статичний «щит», а елемент динамічної системи, яка має еволюціонувати разом із загрозами.

По‑четверте, роль людини змінюється, але не зникає. AI‑агенти можуть генерувати й перевіряти гіпотези атак, але оцінка реального ризику, розуміння контексту розгортання й прийняття рішень про те, що вважати критичним, а що — теоретичним, залишаються людською задачею. Особливо це помітно в кейсах, де формальні метрики на кшталт CVSS дають «10 із 10», але в реальних сценаріях експлуатація вразливості малоймовірна або взагалі неможлива без свідомого порушення рекомендацій.

Усе це робить OpenClaw і навколишню екосистему безпеки своєрідною «лабораторією майбутнього» для агентних систем. NemoClaw — лише один із перших великих гравців у цій лабораторії, але навряд чи останній.

Висновок: OpenClaw як тестовий полігон для безпеки агентів

Історія NemoClaw показує, що навколо OpenClaw формується не просто спільнота розробників, а повноцінна індустрія безпеки. NVIDIA запускає окремий плагін і захисний шар саме для цього фреймворку, NemoClaw може ізолювати дії OpenClaw у пісочниці, а інтеграція з Codex Security за один день демонструє, наскільки швидко сьогодні можна поєднувати агентні системи з потужними інструментами аудиту.

Це водночас і виклик, і шанс. Виклик — тому що жоден захисний шар не є ідеальним, особливо в умовах, коли AI‑моделі, орієнтовані на кібербезпеку, здатні за хвилини знаходити складні обхідні шляхи. Шанс — тому що саме на таких проєктах, як OpenClaw, індустрія може відпрацьовувати нові підходи до безпеки агентів, які згодом стануть стандартом для всього ринку.

У найближчі роки можна очікувати, що кількість подібних рішень зростатиме, а OpenClaw і далі залишатиметься одним із головних полігонів, де ці рішення перевіряються на практиці — у реальних сценаріях, із реальними користувачами й реальними атаками.


Джерело

State of the Claw — Peter Steinberger (YouTube)

AGI як «10 індустріальних революцій за одне десятиліття»: чому порівняння має значення

0

У подкасті 20VC with Harry Stebbings гість проводить радикальне порівняння: поява AGI (штучного загального інтелекту) може стати подією, що за масштабом впливу вдесятеро перевищить індустріальну революцію — і відбудеться приблизно вдесятеро швидше. Це порівняння задає важливий контекст для розмови про те, як суспільство має готуватися до наступної технологічної епохи.

AGI will be 10x the industrial revolution

Від індустріальної революції до AGI: масштаб і швидкість

Індустріальна революція розгорталася приблизно століття, поступово змінюючи виробництво, міста, працю та соціальні структури. У випадку AGI пропонується інша динаміка: трансформація, співставна з «десятьма індустріальними революціями», але стиснута до одного десятиліття.

Це означає не лише більший загальний ефект, а й іншу часову логіку:

  • замість поколінь, які адаптуються до змін, — одне-дві хвилі робочої сили;
  • замість повільного формування інститутів — необхідність швидких політичних, економічних та етичних рішень;
  • замість поступового перерозподілу ролей — стрімке переформатування ринків праці та цілих галузей.

Порівняння з індустріальною революцією тут працює як «масштабна лінійка», яка дозволяє уявити не лише потенційні вигоди, а й глибину можливих потрясінь.

Уроки індустріальної революції: прогрес із високою ціною

Індустріальна революція принесла не лише економічне зростання, а й фундаментальні зміни якості життя. Один із ключових прикладів — медицина. До індустріальної епохи дитяча смертність сягала близько 40%. Розвиток промисловості, науки, інфраструктури та медицини згодом радикально знизив цей показник і створив основу для сучасної системи охорони здоров’я.

Тобто, попри масштабні соціальні потрясіння, експлуатацію праці, урбанізаційні кризи та нерівність, відмовитися від індустріальної революції «заднім числом» було б неможливо: без неї не існувало б значної частини досягнень сучасної цивілізації.

Цей історичний досвід важливий для розуміння AGI: технологічні стрибки майже завжди поєднують величезні вигоди з високою ціною адаптації.

Чому цього разу критично важлива «м’якша посадка»

Ключова теза — не в тому, щоб уникнути AGI, а в тому, щоб краще впоратися з його побічними ефектами, ніж це сталося під час індустріальної революції.

Тоді суспільство довго не мало ефективних механізмів пом’якшення наслідків: трудове законодавство, соціальні гарантії, регулювання умов праці та базові стандарти безпеки формувалися десятиліттями, часто через конфлікти та кризи.

Якщо AGI справді розгортатиметься в масштабі «10× індустріальної революції» і в темпі «10× швидше», часу на таку повільну еволюцію інститутів не буде. Це підсилює кілька імплікацій:

  • потреба в проактивному підході до регулювання та етичних рамок;
  • необхідність заздалегідь думати про перерозподіл вигод і ризиків;
  • важливість інфраструктури безпеки та контролю, яка розробляється паралельно з технологією, а не постфактум.

Історія індустріальної революції в цьому контексті стає не лише аналогією, а й попередженням: технологічний прогрес майже неминучий, але якість переходу залежить від того, наскільки рано суспільство починає готуватися до його наслідків.


Джерело

AGI will be 10x the industrial revolution — 20VC with Harry Stebbings

Безкоштовна праця ШІ: як «нульова собівартість» роботи може зламати гроші, ринки й саме поняття багатства

0

Штучний інтелект як безкоштовний або майже безкоштовний працівник — це не просто ще один фактор продуктивності. Для Романа Ямпольського, професора з безпеки ШІ з Університету Луїсвілля, який 15 років досліджує питання «чи можемо ми контролювати ШІ» (і відповідає: ні), це фундаментальна невідома змінна, здатна радикально перекроїти фінансові системи, ринки капіталу й саме розуміння того, як створюється й розподіляється багатство.

AI Safety Expert: No One Is Ready for What's Coming in 2 Yea

У розмові на каналі Silicon Valley Girl він описує сценарій, у якому когнітивна, а потім і фізична праця стають настільки дешевими, що традиційні економічні припущення — про зарплати, продуктивність, прибутковість капіталу — перестають працювати. І попереджає: інвестори, уряди й самі працівники серйозно недооцінюють, наскільки швидко це може статися.

Коли праця коштує майже нуль: економіка без базової змінної

Сучасна економіка побудована на простій інтуїції: людська праця обмежена й дорога. Зарплати — це значна частина витрат бізнесу, а ринки праці — головний канал, через який люди отримують дохід, накопичують заощадження, купують активи й будують фінансову безпеку.

Ямпольський виходить із протилежної передумови: у довгостроковій перспективі всі роботи можуть бути автоматизовані. Спочатку — когнітивні завдання, які виконуються за комп’ютером, потім — фізична праця, щойно масово з’являться гуманоїдні роботи. Він наголошує, що вже сьогодні:

  • багато перекладацьких завдань можуть бути повністю автоматизовані, і для більшості мов професійна перспектива перекладачів різко звужується;
  • ринок для молодших програмістів і студентів-комп’ютерників помітно стискається: у його департаменті зафіксовано 28% падіння кооперативних (co-op) місць, а потреба в «джунах», які тільки вчаться, різко зменшується.

Це лише ранні симптоми. У його моделі розвитку подій, коли системи досягають рівня штучного загального інтелекту (AGI) — здатності виконувати будь-яку когнітивну роботу, яку може виконати людина, — будь-яка посада, де роботодавцю байдуже, чи це робить людина, чи машина, стає кандидатом на автоматизацію.

Ключовий злам відбувається в момент, коли вартість «одиниці праці» ШІ наближається до нуля. Модель, яку можна орендувати за умовні 20 доларів на місяць, здатна замінити людину, якій потрібно платити зарплату, соціальні внески, медстрахування й відпустки. У такій реальності класичні формули про співвідношення праці й капіталу втрачають сенс: праця перестає бути дефіцитним ресурсом.

Ямпольський наголошує: ніхто не має серйозних досліджень, які б показали, що відбувається з вартістю фіатних валют, криптовалют і фінансових активів у світі, де праця фактично безкоштовна. Це не просто «ще один шок пропозиції», а зникнення базової змінної, на якій трималася індустріальна й постіндустріальна економіка.

Фіат, крипто й акції в епоху безкоштовних працівників

Питання, яке ставить Ямпольський, звучить просто: що станеться з грошима й ринками, коли виробництво товарів і послуг стане надзвичайно дешевим завдяки безкоштовній або майже безкоштовній праці ШІ?

Він окреслює два полярні сценарії, не стверджуючи, що знає, який із них реалізується.

Перший — сценарій надлишку. Якщо все можна виробляти дуже дешево, суспільство отримує матеріальну «абунданс-економіку»: товари й послуги стають доступними, дефіцит зникає, а отже, змінюється й роль грошей як засобу доступу до ресурсів. У такому світі фіатні валюти, прив’язані до економічної активності, можуть поводитися зовсім інакше, ніж сьогодні, а інфляція й дефляція набувають нових форм.

Другий — сценарій перекосу вартості. Якщо продуктивність зростає, але власність на ШІ-системи й інфраструктуру зосереджена в руках обмеженого кола гравців, то саме вони отримують левову частку вигоди. У цьому випадку:

  • акції не-AI-компаній можуть дешевшати, якщо їхні бізнес-моделі не встигають адаптуватися до нової реальності;
  • акції AI-компаній можуть дорожчати, але разом із цим зростає концентрація власності й влади;
  • фіатні валюти й криптовалюти можуть поводитися непередбачувано, оскільки їхня «підкладка» — людська праця й економічна активність — радикально змінюється.

Ямпольський прямо говорить: «Ми не маємо жодного розуміння цього простору». Немає моделей, які б переконливо описували, як поводитимуться фіатні гроші, коли людська праця перестане бути головним джерелом доданої вартості. Немає й чітких прогнозів щодо криптовалют: чи стануть вони «тихою гаванню» в умовах турбулентності, чи, навпаки, їхня цінність розмиється, якщо базові економічні відносини зміняться.

Така невизначеність — не просто теоретична проблема. Вона означає, що інвестори й політики сьогодні діють, спираючись на моделі, які можуть виявитися непридатними в момент, коли ШІ-праця стане масовою й майже безкоштовною.

Компанія з однією людиною й сотнею агентів: кому дістанеться прибуток

Один із найяскравіших образів, який використовує Ямпольський, — це компанія, де замість десятків фахівців працює одна людина, а решту завдань виконують спеціалізовані AI-агенти.

Він описує можливість, коли окремий підприємець може мати «команду» з десятків віртуальних співробітників: юриста, бухгалтера, дизайнера, веброзробника, конструктора — усі вони працюють без зарплати, без офісу й без соціальних пакетів. Уже сьогодні, каже він, це виглядає як реальна можливість: ШІ стає «великим асистентом» для запуску бізнесу, а не просто інструментом автоматизації окремих задач.

Це радикально змінює економіку компаній:

  • витрати на персонал, які традиційно становлять одну з найбільших статей бюджету, можуть впасти до символічних величин;
  • маржа бізнесу, який вміє ефективно використовувати ШІ, потенційно зростає до рівнів, які сьогодні здаються аномальними;
  • масштабування бізнесу стає питанням доступу до обчислювальних ресурсів і алгоритмів, а не найму й навчання людей.

У такій реальності ключове питання звучить не «чи зросте продуктивність», а «хто привласнить її плоди». Якщо компанія з однією людиною й сотнею агентів генерує надприбутки, то:

  • власник компанії концентрує значно більшу частку створеної вартості, ніж у традиційній моделі з великою командою;
  • працівники, які раніше претендували на частину цього пирога у вигляді зарплат, бонусів і опціонів, просто зникають із рівняння;
  • ринки капіталу починають оцінювати такі компанії як «машини для друку грошей», що ще більше підсилює концентрацію власності в руках ранніх інвесторів і засновників.

Ямпольський звертає увагу, що це не просто питання «ефективності» чи «інновацій». Це питання структури власності на засоби виробництва в епоху ШІ. Якщо продуктивна потужність відривається від людської зайнятості, то класичний зв’язок між «працюю — заробляю — інвестую — багатію» руйнується.

Коли робота більше не головний шлях до багатства

Одне з найжорсткіших тверджень Ямпольського стосується саме цього зв’язку. Він очікує, що в світі, де AGI здатний виконувати будь-яку когнітивну роботу, а роботи — фізичну, традиційні шляхи накопичення багатства через роботу можуть просто зникнути для значної частини людей.

Він уже бачить, як руйнується «кар’єрна драбина» в ІТ: молодші програмісти й студенти, які раніше могли розраховувати на стартові позиції, стикаються з різким скороченням вакансій. Старші спеціалісти ще тримаються, але це, за його словами, «дуже короткий термін». Без початкових позицій немає шляху до сеньйорства — і немає класичної траєкторії «від джуна до архітектора, від зарплати до опціонів».

Він прогнозує, що в найближчі роки:

  • когнітивна праця, яку можна виконувати за комп’ютером, буде автоматизована першою;
  • фізична праця піде слідом, щойно гуманоїдні роботи стануть масовими: сьогодні їх уже можна купити, хоч і дорого, але виробництво може масштабуватися до мільйонів одиниць протягом кількох років;
  • у результаті, «будь-яка робота», де результат від людини й машини не відрізняється, стає економічно невиправданою для роботодавця.

Це означає, що суспільству доведеться переосмислити базове питання: як люди отримують доступ до ресурсів і будують фінансову безпеку, якщо робота більше не є головним каналом доходу.

Ямпольський не пропонує готових політичних рішень — він лише фіксує, що:

  • традиційні шляхи накопичення багатства через найману працю можуть бути недоступні;
  • «мати багатство раніше» — усе ще хороша ідея, бо воно дає час і подушку безпеки в умовах невизначеності;
  • суспільство буде змушене шукати нові механізми розподілу доступу до благ, якщо продуктивна потужність економіки відв’яжеться від людської зайнятості.

Це ставить під сумнів не тільки індивідуальні фінансові стратегії, а й саму архітектуру соціальних контрактів: від пенсійних систем до податкової політики.

Швидкість змін: чому інвестори й політики можуть не встигнути

Окрема лінія в аргументації Ямпольського — це темп, із яким наближається ця нова реальність. Він нагадує, що:

  • його власний прогноз: до 2030 року можливості ШІ можуть дозволити технічно автоматизувати до 99% робіт;
  • він чітко розрізняє «можливість автоматизувати» й «фактичне розгортання в економіці», але вважає, що технологічний бік рухається дуже швидко;
  • prediction markets, які раніше ставили появу AGI приблизно на 2045 рік, «обвалилися» до вікна 2028–2030 років;
  • прогрес ШІ він характеризує як «гіперекспоненційний» — швидший, ніж очікувалося навіть кілька років тому.

Це має прямі наслідки для інвесторів і політиків. Якщо вважати, що в нас є десятиліття на адаптацію, можна будувати поступові реформи, коригувати регуляції, тестувати нові моделі соціальної підтримки. Якщо ж вікно стискається до кількох років, то:

  • інвестиційні стратегії, побудовані на припущенні про стабільність ринку праці, можуть виявитися хибними;
  • державні програми, розраховані на десятирічні цикли (освіта, пенсії, інфраструктура), можуть не встигнути адаптуватися до нової структури економіки;
  • політичні рішення, ухвалені сьогодні, можуть базуватися на моделях, які вже не відповідають реальності в момент їхнього впровадження.

Ямпольський вважає, що і інвестори, і політики недооцінюють не лише масштаб, а й швидкість стиснення вартості людської праці відносно капіталу й алгоритмів. Поки дискусія часто зосереджується на тому, «які професії зникнуть першими», фундаментальні питання — що станеться з грошима, ринками й власністю — залишаються на периферії.

Він також застерігає від фокусування на другорядних ризиках. Наприклад, популярна сьогодні теорія, що великі моделі можуть «вкрасти» бізнес-ідеї користувачів і передати їх власникам платформ, на його думку, менш значуща, ніж базовий ризик: масова автоматизація праці як такої. Крадіжка бізнес-процесів можлива й без ШІ, тоді як повна зміна структури праці — це системний шок.

Висновок: економіка, якої ніхто не моделював

Уявлення про ШІ як про «черговий інструмент підвищення продуктивності» може виявитися небезпечним самообманом. У версії майбутнього, яку окреслює Роман Ямпольський, ми маємо справу не з інструментом, а з новим типом праці — майже безкоштовної, масштабованої, доступної 24/7 і здатної виконувати як когнітивні, так і фізичні завдання.

Це ставить під питання:

  • стійкість фіатних валют, прив’язаних до економічної активності, структура якої радикально змінюється;
  • цінність криптовалют і фінансових активів у світі, де базовий фактор виробництва — людська праця — втрачає дефіцитність;
  • моделі оцінки компаній, де витрати на персонал можуть стати маргінальними, а прибутковість — екстремально високою;
  • соціальні механізми, через які люди отримують доступ до ресурсів і будують фінансову безпеку.

Ямпольський не пропонує простих відповідей. Його головний меседж радше в іншому: ми входимо в економічний режим, для якого немає історичних аналогів і відпрацьованих моделей. І поки суспільна дискусія зосереджена на тому, «які професії ще встигнуть адаптуватися», ключові питання — про гроші, ринки й власність у світі безкоштовної праці — залишаються відкритими.

У цій невизначеності він бачить одну очевидну річ: мати багатство раніше — усе ще перевага. Але покладатися на те, що його можна буде накопичити звичним шляхом — через стабільну роботу й кар’єрне зростання — стає дедалі ризикованішою ставкою.


Джерело

AI Safety Expert: No One Is Ready for What’s Coming in 2 Years | Roman Yampolskiy

Як Claude Code економить токени за допомогою Code Skills

0

У Claude Code з’явився ще один інструмент для економії токенів і точнішої роботи з кодом — так звані code skills. Це новий стандарт у світі AI-агентів, який запровадила компанія Anthropic. Канал KODARIK розбирає, як саме вони працюють і чому важливо правильно їх налаштовувати.

man programming using laptop

Що таке code skills і навіщо вони потрібні

Code skill — це спеціалізоване нішеве експертне вміння, яке описується в окремому файлі й підключається до Claude Code. Ідея в тому, що модель не тримає всі знання в контексті постійно, а звертається до конкретного скіла лише тоді, коли це справді потрібно. Це зменшує використання токенів і робить відповіді більш релевантними.

Фактично, кожен skill — це окремий модуль експертизи. Наприклад, можна створити скіл для frontend-дизайну, окремий — для роботи з базами даних, ще один — для оптимізації продуктивності тощо.

Де зберігаються skills у Claude Code

У Claude Code всі скіли лежать у спеціальній структурі папок:

  • коренева папка: .clot
  • всередині неї: Skills
  • далі — окрема папка для кожного скіла з його назвою (наприклад, frontend-design)

У кожній такій папці обов’язково має бути файл skill.md (саме у форматі Markdown і саме з такою назвою великими літерами). Без нього скіл не працюватиме.

Приклад структури:

.clot/
  Skills/
    frontend-design/
      SKILL.MD

Як влаштований файл SKILL.MD

Файл SKILL.MD складається з двох основних частин:

  1. Метадані на початку файлу
  2. Опис експертного вміння нижче

У метаданих обов’язково мають бути два поля:

  • name
  • description

Саме ці значення є критичними: Claude Code використовує їх, щоб вирішити, чи потрібно підключати конкретний скіл до поточного запиту.

Рекомендація до оформлення:

  • name і description мають бути максимально чіткими й короткими.
  • Вони повинні однозначно описувати, за що відповідає цей скіл.

Нижче в SKILL.MD розміщується власне експертний контент — детальні знання, правила, підходи, які модель застосовуватиме, якщо вирішить використати цей скіл.

Як модель обирає, який skill застосувати

Механізм роботи виглядає так:

  1. Користувач формулює запит до моделі, наприклад: «Створи мені красивий сайт».
  2. У контексті Claude Code одразу підтягуються name та description кожного доступного скіла.
  3. Модель послідовно «читає» ці метадані й порівнює їх із запитом.
  4. Якщо знаходиться скіл, який чітко відповідає запиту (наприклад, скіл із frontend-дизайну), модель вирішує, що його варто застосувати.
  5. Лише після цього Claude Code зчитує повний вміст експертного опису в SKILL.MD і використовує його для формування відповіді.

Ключовий момент: повний текст скіла не вантажиться в контекст автоматично. Спочатку модель працює лише з короткими метаданими, і тільки якщо бачить відповідність, підтягує повний експертний опис. Саме це й дозволяє суттєво зменшити витрати токенів.


Джерело

https://www.youtube.com/watch?v=HrOoTCYJHSM

Від вузьких інструментів до неконтрольованої надінтелекту: чому безпечний AGI може виявитися неможливим

0

Штучний інтелект уже автоматизує переклад, програмування та офісну рутину, але для частини дослідників це лише пролог до набагато радикальнішої трансформації. Один із найпослідовніших скептиків щодо контролю над майбутнім суперінтелектом — Роман Ямпольський, професор з безпеки ШІ в Університеті Луїсвілля, який 15 років вивчає одне питання: чи здатні люди надійно контролювати штучний інтелект. Його відповідь однозначна: якщо людство створить справжню надінтелектуальну систему, керувати нею ми не зможемо.

a purple and black 3d printer with wires

У розмові на каналі Silicon Valley Girl Ямпольський проводить чітку межу між сьогоднішніми вузькими AI‑інструментами та гіпотетичною суперінтелектуальною системою, пояснює, чому підтримує розвиток перших і виступає проти другої, та попереджає: часові горизонти створення AGI стрімко скорочуються, а прогрес набуває гіперекспоненційного характеру.

Не один «ШІ»: чому вузькі системи й суперінтелект — це різні світи

У публічних дискусіях терміни «AI», «AGI» та «суперінтелект» часто вживають як синоніми. Ямпольський наполягає: це принципово різні рівні технології, і змішування понять лише заважає адекватно оцінювати ризики.

Сьогоднішні системи, які вже змінюють ринки праці та бізнес‑процеси, — це переважно вузький ШІ. Вони виконують конкретні завдання: переклад текстів, генерація коду, аналіз документів, планування маршрутів. Навіть якщо під капотом використовуються подібні методи машинного навчання, це інструменти з чітко окресленою сферою застосування.

AGI (Artificial General Intelligence) у трактуванні Ямпольського — це вже інший клас систем: інтелект, здатний виконувати будь‑яку когнітивну роботу, яку може виконати людина. Не «перекладати з англійської на іспанську» чи «писати код на C++», а в принципі робити все, що ми називаємо розумовою працею: від написання романів до стратегічного управління корпораціями.

Суперінтелект — наступний щабель. Це система, яка не просто дорівнює людині, а радикально її перевершує в плануванні, креативності, передбаченні наслідків, оптимізації. Саме з цим рівнем, за висновком Ямпольського, пов’язана ключова проблема: якщо ми його створимо, надійно контролювати таку систему не зможемо.

Важливий нюанс: те, що сьогоднішні моделі іноді називають «AGI‑подібними», не означає, що ми вже живемо в епосі справжнього загального інтелекту. Але тренд очевидний: вузькі інструменти стають дедалі універсальнішими, і межа між «інструментом» та «агентом» починає розмиватися.

15 років досліджень і один висновок: суперінтелект не піддається надійному контролю

Ямпольський формулює свою позицію максимально прямо: він не вірить, що людство здатне створити надійні механізми контролю над суперінтелектом. П’ятнадцять років роботи в Університеті Луїсвілля були присвячені саме цьому питанню — і відповідь, до якої він приходить, песимістична.

Йдеться не про те, що сьогоднішні моделі неможливо обмежити політиками використання чи фільтрами. Мова про принципову неможливість гарантувати безпеку системи, яка розумніша за нас у всьому, включно з пошуком лазівок у наших обмеженнях.

У класичній інженерії безпека часто досягається через верифікацію: ми формально доводимо, що система не вийде за межі заданих правил. Але для надінтелектуального агента, який сам здатен модифікувати власний код, шукати неочевидні стратегії та використовувати будь‑які прогалини в середовищі, така верифікація стає практично нездійсненною. Навіть якщо обмеження формально прописані, неможливо перебрати всі сценарії, які може згенерувати система, що радикально перевершує нас у креативності та плануванні.

Звідси й радикальна позиція: Ямпольський не закликає зупинити весь прогрес у ШІ, але вважає, що саме створення загального суперінтелекту — це межа, яку переходити не варто. І не тому, що ризики «високі, але керовані», а тому, що в його моделі світу контроль над такою системою в принципі не може бути надійним.

Вузький ШІ як безпечніший шлях: від раку грудей до білкового згортання

Попри жорстку критику ідеї суперінтелекту, Ямпольський не є противником ШІ як такого. Навпаки, він послідовно підтримує розвиток вузьких інструментів, які вирішують конкретні задачі й тренуються на релевантних даних.

Один із показових прикладів — системи на кшталт DeepMind AlphaFold, що розв’язують задачу білкового згортання. Це потужний, але вузький ШІ: модель навчається на спеціалізованих біологічних даних, зосереджена на одній науковій проблемі й не має загального доступу до всіх можливих доменів людської діяльності.

Такий підхід, на думку Ямпольського, можна масштабувати: замість однієї універсальної надінтелектуальної системи, яка «вміє все», варто будувати багато спеціалізованих інструментів. Наприклад, систему, єдина мета якої — лікування раку грудей. Вона може бути надзвичайно потужною в межах своєї задачі, але не матиме загальної автономії, доступу до всіх сфер прийняття рішень і можливості перетворитися на неконтрольованого агента.

Ключова ідея тут не в тому, що вузький ШІ абсолютно безпечний, а в тому, що ризики набагато локальніші й краще зрозумілі. Якщо система навчається тільки на медичних даних і вбудована в чітко регульований клінічний контур, її поведінку простіше моніторити, а наслідки помилок — обмежити.

Водночас Ямпольський попереджає: навіть вузькі інструменти, стаючи дедалі потужнішими, починають набувати агентних рис. Коли модель не просто перекладає текст, а сама планує кроки, викликає інші сервіси, оптимізує стратегію досягнення мети, межа між «інструментом» і «автономним агентом» стає розмитою. І саме в цій сірій зоні можуть виникати нові класи ризиків задовго до появи повноцінного суперінтелекту.

Гіперекспоненційний прогрес і зсув таймлайнів: чому 2045 перетворилося на 2028–2030

Ще кілька років тому в експертних дискусіях часто фігурувала дата 2045 як умовний горизонт появи AGI. Сьогодні картина інша. Ямпольський звертає увагу на те, що прогнозні ринки — інструмент, де люди буквально ставлять гроші на свої очікування, — суттєво змінили оцінки. Замість середини століття дедалі частіше звучить діапазон 2028–2030 років.

Це не гарантія того, що AGI з’явиться саме в ці роки, але важливий сигнал: колективні очікування ринку, який намагається бути максимально прагматичним, змістилися майже на два десятиліття вперед. На думку Ямпольського, це відображає характер самого прогресу в ШІ, який він описує як гіперекспоненційний.

Експоненційне зростання — це коли кожен наступний крок додає фіксований відсоток до попереднього рівня. Гіперекспоненційне — коли навіть цей відсоток зростає. У практичному вимірі це означає, що не лише моделі стають кращими, а й цикл «дослідження — розробка — впровадження» скорочується, інфраструктура дешевшає, а інструменти стають доступними масовому користувачу майже миттєво.

Цей прискорений темп має два наслідки. По‑перше, вікно для суспільної дискусії, регулювання та побудови захисних механізмів звужується. По‑друге, навіть якщо сьогоднішні системи ще далекі від справжнього AGI, перехід від «майже» до «достатньо» може виявитися набагато коротшим, ніж очікувалося.

Сам Ямпольський не стверджує, що в конкретному році ми обов’язково отримаємо повноцінний загальний інтелект. Але він наполягає: тренд очевидний, і розраховувати на те, що у нас є «ще 20 років запасу», вже несерйозно.

Коли інструменти стають агентами: розмита межа й нові ризики

Одна з найцікавіших тез Ямпольського стосується не стільки далекого суперінтелекту, скільки проміжного етапу, в якому ми вже частково опинилися. Сьогоднішні моделі позиціонуються як інструменти: чат‑боти, помічники, генератори коду. Людина задає завдання, система відповідає. Але в міру зростання можливостей ця проста схема починає змінюватися.

Уявімо собі «пакет» з кількох вузьких моделей: одна аналізує ринок, інша генерує бізнес‑ідеї, третя пише код, четверта запускає рекламні кампанії. Додамо до цього шар оркестрації, який сам вирішує, коли і яку модель викликати, як коригувати стратегію, як реагувати на зворотний зв’язок. Формально це все ще «інструменти», але фактично ми отримуємо агента, здатного діяти автономно в межах певної мети.

Ямпольський звертає увагу, що вже сьогодні одна людина може керувати десятками таких «агентів»: віртуальним юристом, бухгалтером, дизайнером, розробником. Це відкриває безпрецедентні можливості для підприємців, але одночасно створює новий клас ризиків. Якщо завтра з’явиться модель, яка зможе замінити й цю «одну людину над агентами», ми отримаємо повністю автоматизовані системи прийняття рішень, де людський контроль буде мінімальним або символічним.

У такому світі питання «чи можемо ми контролювати суперінтелект» перестає бути суто теоретичним. Навіть без повноцінного AGI ми наближаємося до ситуації, коли складні, взаємопов’язані AI‑системи ухвалюють рішення, від яких залежать ринки, інфраструктура, безпека. І чим більше автономії ми їм делегуємо, тим важче стає відкотити цей процес назад.

Саме тому Ямпольський вважає, що ризики не починаються в момент, коли хтось офіційно оголосить про створення AGI. Вони виникають раніше — у точці, де ми перестаємо чітко розуміти, де закінчується «інструмент» і починається «агент», і продовжуємо рухатися вперед, не маючи відповіді на питання про довгостроковий контроль.

«Ми пошкодуємо, що пішли цим шляхом»: чому гонка за суперінтелектом може обернутися проти людства

Попри всі застереження, створення загального інтелекту залишається відкрито задекларованою метою для низки великих корпорацій. У стратегіях, публічних заявах і технічних дорожніх картах прямо фігурують формулювання на кшталт «побудувати AGI» або «досягти загального інтелекту».

Ямпольський вважає, що людство, ймовірно, пошкодує про це прагнення. Причина не лише в абстрактних «апокаліптичних сценаріях», а в більш приземленій логіці: ми свідомо рухаємося до створення системи, яку за власними ж оцінками не зможемо надійно контролювати.

Парадокс у тому, що мотивація гравців зрозуміла. Вузькі інструменти вже дають колосальні економічні переваги. Автоматизація перекладу робить непотрібними цілі сегменти ринку. Зниження попиту на молодших програмістів, яке Ямпольський бачить навіть у власному університеті (28% падіння кооперативних стажувань на кафедрі комп’ютерних наук), демонструє, як швидко технологія змінює структуру зайнятості. У такій ситуації спокуса «піти до кінця» й отримати універсальну систему, здатну автоматизувати ще більше, виглядає логічною з точки зору бізнесу.

Але саме тут, на думку Ямпольського, і криється стратегічна помилка. Якщо вузькі інструменти можна відносно безпечно вбудовувати в економіку, то перехід до загального суперінтелекту якісно змінює ситуацію. Ми перестаємо мати справу з набором окремих сервісів і починаємо взаємодіяти з єдиною системою, яка потенційно здатна перевершити нас у всіх сферах, включно з безпекою, маніпуляцією, довгостроковим плануванням.

Ямпольський не пропонує простих рішень — на кшталт «заборонити все». Але його позиція чітка: підтримувати розвиток вузького ШІ, який вирішує конкретні проблеми (від медицини до науки), і свідомо відмовитися від гонки за загальним суперінтелектом. Інакше, вважає він, ми ризикуємо опинитися в ситуації, де ключові рішення ухвалює система, яку ми не розуміємо й не контролюємо.

Висновок: вікно можливостей звужується, а вибір ще не зроблено

Роман Ямпольський пропонує не чергову варіацію на тему «ШІ забере наші роботи», а більш фундаментальну рамку: що саме ми будуємо — набір потужних, але вузьких інструментів чи універсальний надінтелект, і чи є в нас реалістичний план контролю другого варіанту.

Його діагноз жорсткий. Якщо суперінтелект буде створено, надійно керувати ним ми не зможемо. Водночас вузькі системи вже сьогодні демонструють, наскільки корисним може бути ШІ, коли його сфера дії чітко окреслена: від білкового згортання до потенційних систем, спрямованих виключно на лікування конкретних хвороб.

Гіперекспоненційний прогрес і зсув прогнозів AGI з 2045 на 2028–2030 роки означають, що часу на роздуми небагато. Межа між інструментами й агентами розмивається, автономія систем зростає, а економічні стимули штовхають корпорації до все більш загальних моделей.

Питання, яке ставить Ямпольський, не технічне, а цивілізаційне: чи готові ми свідомо відмовитися від спокуси побудувати «останню машину», яка вміє все, на користь множини потужних, але обмежених інструментів? Від відповіді на нього залежить не лише майбутнє ринку праці, а й те, хто — або що — врешті ухвалюватиме ключові рішення за людство.


Джерело

AI Safety Expert: No One Is Ready for What’s Coming in 2 Years | Roman Yampolskiy

Безпрецедентний шквал вразливостей: як OpenClaw живе з 16+ security-репортами на день

0

П’ять місяців тому австрійський інженер Петер Штайнбергер запустив OpenClaw — відкритий AI‑агентний фреймворк, який він нині називає найшвидше зростаючим проєктом в історії GitHub за кількістю зірок. Попри молодий вік, репозиторій уже має десятки тисяч комітів і майже дві тисячі контриб’юторів, а сам Штайнбергер паралельно працює в OpenAI та очолює незалежну OpenClaw Foundation.

State of the Claw — Peter Steinberger

Разом із вибуховим зростанням OpenClaw отримав і інший рекорд — за обсягом уваги з боку безпекової спільноти. За перші місяці існування проєкт зібрав понад тисячу security‑advisories, причому темп надходження звітів суттєво перевищує показники таких ветеранів інфраструктури, як Linux kernel чи curl. Це створює унікальний кейс: як виглядає безпека в епоху AI‑інструментів, здатних масово генерувати знахідки, і що означає «бути вразливим», коли на тебе одночасно дивляться сотні дослідників і агентів?

Масштаб загрози в цифрах: 1 142 advisories за п’ять місяців

OpenClaw сьогодні живе в режимі постійного security‑шторму. На момент виступу Штайнбергер наводить конкретні цифри: проєкт уже отримав 1 142 security‑advisories, що в середньому становить близько 16,6 звітів на день. Для будь-якого open source‑проєкту це надзвичайний темп, а для п’ятимісячного — майже безпрецедентний.

Серед цих повідомлень 99 класифіковано як критичні. Частина advisories після верифікації публікується: наразі оприлюднено приблизно 469 звітів. Близько 60% усіх зареєстрованих проблем уже закрито — або через виправлення, або через визнання, що описаний сценарій не становить реальної загрози в типових умовах використання.

Якщо дивитися на цифри ізольовано, картина виглядає тривожною. Сотні звітів, десятки «критичних» кейсів, сотні ще не опрацьованих — усе це легко перетворюється на наратив про «найнебезпечніший AI‑проєкт». Але контекст тут не менш важливий, ніж самі числа: OpenClaw став магнітом для дослідників, компаній і навіть державних структур, які намагаються зламати чи принаймні поставити під сумнів безпеку агентної платформи, що стрімко стає де-факто стандартом.

Штайнбергер описує ситуацію як «DDoS security‑репортами»: сотні людей запускають свої інструменти, агенти й сканери, щоб знайти хоч щось, що можна перетворити на advisory. Для індустрії це спосіб заробити репутаційні «кредити» — чим більше знайдених вразливостей, тим гучніші імена дослідників та організацій. Для OpenClaw це означає постійну роботу на межі можливостей мейнтейнерів.

Удвічі більше за Linux kernel, удвічі більше за curl: що означає таке порівняння

Щоб зрозуміти масштаб навантаження, Штайнбергер порівнює OpenClaw з двома добре відомими проєктами — Linux kernel та curl. Обидва — фундаментальні компоненти сучасної інфраструктури, які десятиліттями перебувають під прицілом як дослідників безпеки, так і зловмисників.

За його словами, ядро Linux отримує близько 8–9 security‑advisories на день. Це вже сам по собі високий показник для проєкту такого масштабу, але OpenClaw сьогодні має приблизно вдвічі вищий темп — ті самі 16,6 звітів щодня. Тобто молодий агентний фреймворк, який ще навіть не встиг стабілізуватися як «класична» інфраструктура, живе в режимі, що перевищує навантаження на один із найкритичніших компонентів світового софту.

Інше порівняння — з curl, утилітою та бібліотекою, яка використовується практично всюди, де є HTTP‑запити. За весь час існування curl отримав близько 600 security‑репортів. OpenClaw за кілька місяців уже має приблизно вдвічі більше — ті самі 1 142 advisories. Штайнбергер прямо формулює це: OpenClaw отримує приблизно вдвічі більше security‑advisories на день, ніж Linux kernel, і має приблизно вдвічі більше security‑репортів загалом, ніж curl за всю свою історію.

Ці порівняння не означають, що OpenClaw «вдвічі небезпечніший» за Linux чи curl. Вони радше демонструють, як змінилася сама динаміка безпеки в епоху AI‑інструментів і масової автоматизації пошуку вразливостей. Якщо раніше дослідники вручну аналізували код і протоколи, сьогодні значну частину роботи виконують агенти, які можуть генерувати десятки варіантів атак і сценаріїв за лічені хвилини.

У результаті будь-який проєкт, що опиняється в центрі уваги, отримує лавину звітів — від реальних, складних експлойтів до формальних, але практично малозначущих кейсів, які все одно потрапляють у систему як «критичні» за формальними правилами CVSS.

Коли «10 із 10» не означає кінець світу: формальні CVSS проти реальної загрози

Один із найяскравіших прикладів розриву між формальними метриками й реальною загрозою — кейс із вразливістю, що отримала CVSS‑оцінку 10 із 10. На папері це максимальний рівень небезпеки, який зазвичай асоціюється з повним компромісом системи. У конкретному випадку йшлося про сценарій, коли мобільний застосунок (наприклад, iOS‑клієнт OpenClaw, який ще навіть не був випущений) із правами лише на читання міг за певних умов отримати можливість запису.

Формально це порушення моделі дозволів, тож за правилами CVSS воно отримує максимальний бал. Проте в реальних сценаріях використання OpenClaw ця вразливість майже не проявляється. Типова інсталяція — це або локальний запуск на власній машині, або розгортання в хмарі чи приватній мережі, де користувач і так має повний контроль над середовищем. У переважній більшості випадків або є повний доступ до «gateway», або його немає взагалі; проміжні, тонко налаштовані моделі дозволів, для яких ця вразливість була б релевантною, практично не використовуються.

Штайнбергер визнає, що спроба створити більш гнучку систему прав доступу була його помилкою з точки зору складності моделі. Але водночас підкреслює: правила CVSS не враховують реальні патерни деплойменту та типові конфігурації. Якщо слідувати їм буквально, доводиться маркувати як «10/10» інциденти, які в реальному житті майже нікого не зачіпають.

Це створює парадокс: з одного боку, мейнтейнери намагаються «грати за правилами» й чесно реєструвати та класифікувати всі знайдені проблеми. З іншого — медіа, регулятори й частина безпекової спільноти інтерпретують ці цифри без контексту, перетворюючи формальні оцінки на гучні заголовки про «критично небезпечний» продукт.

Агентний світ як магніт для атак: від RCE до supply chain‑інцидентів

Попри надмірну драматизацію окремих кейсів, ризики в OpenClaw цілком реальні — і вони типові для будь-якої потужної агентної системи. Типовий attack surface включає віддалене виконання коду, обходи механізмів підтвердження дій, ін’єкції коду, path traversal та інші класичні вектори.

Особливість агентних платформ у тому, що вони поєднують три критичні компоненти: доступ до даних користувача, взаємодію з недовіреним контентом і можливість виконувати дії у зовнішньому світі. У такій конфігурації будь-яка помилка в ізоляції чи авторизації може мати значно серйозніші наслідки, ніж у традиційних застосунків, які лише читають або відображають інформацію.

Штайнбергер прямо говорить про «юридичну тріаду» ризиків: агент, який має доступ до ваших даних, може спілкуватися з недовіреними джерелами й водночас виконувати дії, завжди становитиме потенційну загрозу. Це не унікальна проблема OpenClaw — так працює будь-яка достатньо потужна агентна система. Чим більше можливостей ви даєте агенту, тим більше потрібно розуміти, що саме він може зробити й як обмежити його повноваження.

На цьому фоні з’являються й класичні supply chain‑інциденти. Один із прикладів — вразливість в Axios, популярній HTTP‑бібліотеці. OpenClaw напряму її не використовує, але має залежності на кшталт Microsoft Teams чи Slack, які, своєю чергою, тягнуть Axios без жорсткого пінінгу версій. У результаті OpenClaw опиняється в ланцюжку постачання, який уразливий до проблем у сторонньому пакеті, навіть якщо сам проєкт ніколи не додавав його до свого коду.

Ще один пласт загроз — активність державних акторів. Штайнбергер згадує кейс «GhostClaw», який, за його словами, імовірно пов’язаний із Північною Кореєю. Суть атаки — підміна пакета в екосистемі NPM: користувач, який переходить на фішинговий сайт і завантажує «не той» пакет, отримує rootkit. Це вже не вразливість OpenClaw як такого, а класичний приклад того, як популярність проєкту робить його брендом, який зручно використовувати для маскування шкідливого ПЗ.

Коли безпека стає індустрією страху: як OpenClaw опиняється в центрі феар‑маркетингу

Окремий вимір проблеми — те, як навколо OpenClaw формується індустрія страху. Штайнбергер описує ситуацію, коли компанії, університети й дослідницькі групи будують свою видимість на гучних кейсах про «небезпечні агентні системи», часто ігноруючи контекст і рекомендації з безпечного використання.

Він наводить приклад наукової роботи «Agents of Chaos», де кілька сторінок присвячено детальному опису архітектури OpenClaw. При цьому автори, за його словами, повністю ігнорують офіційну сторінку з рекомендаціями щодо безпеки: там, де пояснюється, що особистий агент не варто додавати в групові чати, а якщо це командний агент, то слід вмикати sandboxing і обмежувати доступ до чутливих даних.

У результаті дослідники демонструють «ефектні» сценарії, де будь-хто в груповому чаті може змусити агента виконати небажані дії або ексфільтрувати дані. Формально це виглядає як серйозна вразливість, але на практиці часто виявляється наслідком свідомого ігнорування базових рекомендацій: запуск агента в режимі sudo, максимальні дозволи, відсутність ізоляції.

Схожа історія трапляється й на рівні державних структур. Штайнбергер згадує випадок, коли одна з вразливостей RCE спричинила паніку в бельгійському кібербезпековому відомстві. Суть проблеми полягала в тому, що зловмисний сайт міг створити посилання, яке активує gateway і пересилає токен доступу. У типовій конфігурації OpenClaw gateway‑токен доступний лише локально або в приватній мережі, тож зовнішній сайт просто не може до нього дістатися. Проте якщо користувач свідомо порушує рекомендації, наприклад, розгортає систему через хмарний сервіс без належної ізоляції, сценарій стає можливим — і миттєво перетворюється на гучний «національний інцидент».

Усі ці кейси підсвічують напруження між двома реальностями. З одного боку, є реальні ризики, пов’язані з потужними агентами, і потреба говорити про них чесно. З іншого — є спокуса будувати кар’єри, цитування й бюджети на драматичних історіях, де контекст ігнорується, а формальні CVSS‑бали стають головним аргументом.

Люди проти агентів: як мейнтейнери виживають під шквалом AI‑згенерованих репортів

Ще одна нова реальність, з якою стикається OpenClaw, — це зміна природи самих security‑репортів. Значну їх частину сьогодні генерують не люди, а агенти й інструменти на базі великих мовних моделей. Вони вміють будувати складні ланцюжки атак, комбінувати кілька дрібних помилок у повноцінний експлойт і масово продукувати варіанти сценаріїв.

Для мейнтейнерів це означає подвійне навантаження. З одного боку, зростає шанс виявити справді нетривіальні вразливості, які раніше могли б залишитися непоміченими. З іншого — різко збільшується кількість «шуму»: формально коректних, але практично малозначущих або дубльованих звітів, які все одно потребують ручної перевірки.

Штайнбергер визнає, що сьогодні не може повністю довірити аналіз цих звітів самим агентам. Кожен advisory доводиться читати й осмислювати, оцінюючи не лише технічну коректність, а й реалістичність загрози в типових сценаріях використання. Іноді можна здогадатися, що репорт згенеровано AI — наприклад, коли текст надто ввічливий або автор вибачається, що нетипово для спільноти безпеки. Але це не знімає необхідності розбиратися в деталях.

Класична проблема open source тут лише загострюється. Більшість проєктів і так скаржаться на брак ресурсів для обробки security‑репортів; деякі, як ffmpeg, публічно говорять про те, що не встигають опрацьовувати всі знахідки. Часто звіт не супроводжується якісним патчем, а якщо патч і є, то нерідко виявляється поганим і ламає продукт, якщо застосувати його поспіхом.

OpenClaw спочатку намагався відповідати на цей виклик силами волонтерів. Штайнбергер зізнається, що певний час намагався самостійно обробляти весь потік advisories — і це виявилося просто неможливим. Урешті-решт проєкт почав залучати компанії, які готові виділити людей на повний робочий день для «просіювання» шуму й послідовного зміцнення кодової бази. Серед таких партнерів він окремо відзначає NVIDIA, яка, за його словами, надала фахівців, що фактично повний день працюють над безпекою OpenClaw.

Це показовий зсув: у світі, де AI‑інструменти здатні генерувати тисячі знахідок, безпека open source‑проєктів дедалі більше залежить від того, чи є в них доступ до професійних команд, а не лише до ентузіастів‑волонтерів.

Нові правила гри: чому безпека агентних систем потребує переосмислення

Історія OpenClaw демонструє, що класичні підходи до оцінки безпеки погано масштабуються в умовах агентних систем і AI‑асистованого пошуку вразливостей. Формальні CVSS‑бали, кількість advisories чи порівняння з Linux kernel і curl дають лише поверхневу картину. Вони не враховують, наскільки активно проєкт атакують, як саме його зазвичай розгортають, які рекомендації з безпеки ігноруються користувачами й наскільки сильно на статистику впливає автоматизація.

OpenClaw став своєрідним стрес‑тестом для всієї індустрії. З одного боку, він показує, наскільки потужними стали AI‑інструменти для пошуку вразливостей: від sandbox‑обходів до складних ланцюжків RCE. З іншого — оголює слабкі місця в екосистемі безпеки: від феар‑маркетингу до перевантаження мейнтейнерів і відсутності зрозумілих метрик, які б розрізняли «формально критичне» й «практично небезпечне».

У цьому сенсі OpenClaw — не просто «молодий і вразливий» проєкт, а радше дзеркало нової епохи. Епохи, де будь-яка популярна платформа миттєво стає мішенню для сотень агентів і дослідників, де кожен CVSS‑бал може стати інформаційним приводом, а виживання open source дедалі більше залежить від здатності будувати партнерства з великими гравцями, які готові інвестувати в безпеку не лише словами.

Висновок

OpenClaw сьогодні живе в унікальній точці перетину: це надзвичайно популярний open source‑проєкт, молода агентна платформа й водночас полігон для нової хвилі безпекових практик, де AI‑інструменти атакують AI‑системи. 1 142 security‑advisories, 16,6 звітів на день, 99 «критичних» кейсів, 60% закритих проблем і темп, що вдвічі перевищує Linux kernel, — усе це не стільки вирок, скільки симптом нової реальності.

У цій реальності питання вже не в тому, чи можна створити абсолютно безпечну агентну систему. Питання в тому, як навчитися жити з постійним потоком вразливостей, відрізняти реальні загрози від формального шуму, будувати чесну комунікацію без феар‑маркетингу й водночас не знецінювати ризики, які справді існують. OpenClaw, зі своїм безпрецедентним шквалом репортів, сьогодні один із небагатьох проєктів, що змушує індустрію шукати відповіді на ці запитання.


Джерело

State of the Claw — Peter Steinberger

Приховані пастки автогенерації: як ШІ псує ваш код

0

Штучний інтелект став стандартним інструментом у роботі розробників, але разом із прискоренням рутини він приносить і новий клас проблем. Канал Tech With Tim звертає увагу на те, що безкритичне використання AI у розробці може зробити код крихким, важко масштабованим і майже непридатним до підтримки.

man in black shirt using laptop computer and flat screen monitor

Коли ШІ оптимізує не те, що потрібно

Головна теза: сучасні AI‑інструменти програмування оптимізують не за реальну надійність системи, а за «проходження перевірки».

Модель фактично намагається:
– пройти ваші тести;
– задовольнити поточний запит;
– створити враження «працюючого» рішення тут і зараз.

Це означає, що:
– код може коректно працювати в обмеженому наборі сценаріїв;
– але не враховує поведінку системи під навантаженням чи в довгостроковій перспективі;
– архітектурні рішення приймаються «на льоту», без загальної картини.

Людина‑розробник, пишучи код рядок за рядком, змушена думати про структуру, межі відповідальності модулів, майбутні зміни. ШІ ж цього не «відчуває» — він лише підбирає шаблони, які виглядають правильними для поточного запиту.

Невидимі проблеми, які спливають через тижні

На перших етапах усе може виглядати ідеально: фічі працюють, тести зелені, продукт рухається вперед. Але глибока інтеграція AI‑згенерованого коду в проєкт часто призводить до того, що через кілька тижнів починають проявлятися:

  • дивні edge‑кейси — сценарії, про які ніхто не подумав, але користувачі чи система неминуче до них доходять;
  • race conditions — умови змагання в багатопоточному чи асинхронному коді, коли результат залежить від порядку виконання операцій;
  • витоки пам’яті — ресурси не звільняються, процес «роздувається», продуктивність падає;
  • крихкі залежності — зміна однієї частини системи ламає інші, бо не було чітко визначених контрактів між компонентами.

Ці проблеми особливо болючі в бекенді, системних компонентах чи складних сервісах, де стабільність і масштабованість критичні.

Ціна змін: коли простий апдейт перетворюється на переписування

Окрема небезпека — архітектурна крихкість. Сценарій виглядає так:

  1. Створюється функціонал із активним використанням AI‑генерації.
  2. Система працює 2–5 тижнів без видимих проблем.
  3. Виникає потреба:
  4. додати нову фічу;
  5. змінити бізнес‑логіку;
  6. оптимізувати частину бекенду чи ОС‑рівня.

На цьому етапі виявляється, що:
– код написаний без урахування розширюваності;
– компоненти тісно переплетені;
– немає чітких шарів абстракції.

Результат — замість локальної зміни доводиться:
– переписувати значну частину бекенду;
– переробляти системні модулі;
– фактично робити міні‑рефакторинг усього, що було згенеровано.

Те, що здавалося «швидким прискоренням», обертається затримками й технічним боргом.

Чого не робить ШІ, але мусить робити розробник

Ключова різниця між людиною й моделлю — у способі мислення про систему:

  • Розробник:
  • планує структуру заздалегідь;
  • думає про майбутні зміни;
  • враховує масштабування, навантаження, підтримку;
  • бачить код як частину цілісної архітектури.

  • ШІ:

  • працює локально, від запиту до запиту;
  • не має «відповідальності» за довгострокові наслідки;
  • не відчуває вартості майбутнього рефакторингу.

Тому повна передача контролю AI‑інструментам у складних проєктах ризикує сповільнити розробку в середньо‑ та довгостроковій перспективі, навіть якщо на старті здається, що все рухається швидше.


Джерело

https://www.youtube.com/watch?v=axSyL9r5xcg

Як керувати найшвидшим open-source-проєктом світу: модель управління OpenClaw Foundation на «хард-моді»

0

OpenClaw — молодий, але вже надзвичайно впливовий open‑source‑проєкт у сфері AI‑агентів. Лише за п’ять місяців він став одним із найзірковіших репозиторіїв GitHub, з десятками тисяч комітів і майже двома тисячами контриб’юторів. Його автор, австрійський інженер Петер Штайнбергер, паралельно приєднався до OpenAI, щоб працювати над тим, як «принести агентів усім», і водночас запустив окрему структуру — OpenClaw Foundation.

person using MacBook Pro

Саме ця фундація, її незалежність і щоденна операційна реальність «компанії на хард‑моді» з волонтерами замість штатних співробітників — ключ до розуміння того, як OpenClaw намагається залишатися відкритим, керованим спільнотою й водночас життєздатним у довгостроковій перспективі.

Дві паралельні ролі: OpenAI та OpenClaw Foundation

Після попереднього досвіду побудови компанії Штайнбергер опинився на роздоріжжі: або знову запускати бізнес навколо нового проєкту, або шукати іншу модель. Він обрав комбінований шлях. З одного боку, приєднався до OpenAI з чіткою місією — працювати над тим, щоб агентні системи стали доступними широкому колу користувачів. З іншого — створив OpenClaw Foundation як окремий інститут управління open‑source‑проєктом.

Це означає, що сьогодні він фактично живе у двох світах одночасно. В одному — корпоративна структура OpenAI, орієнтована на розвиток продуктів і платформ для агентів. В іншому — фундація, яка має опікуватися кодовою базою OpenClaw, спільнотою, безпекою, релізами й усім тим, що зазвичай робить компанія‑розробник продукту.

Різниця в тому, що у фундації немає класичного штату, немає зрозумілої вертикалі управління й немає можливості просто «роздати задачі» людям, які отримують зарплату за їх виконання. Це радикально змінює спосіб, у який доводиться організовувати роботу.

Чому OpenClaw Foundation має бути незалежною

Ключовий принцип, закладений у OpenClaw Foundation, — інституційна незалежність від будь‑якої однієї компанії, включно з OpenAI. Формально й концептуально фундація змодельована як окрема сутність, яка не належить жодному корпоративному гравцю й не може бути односторонньо контрольована ним.

Це рішення напряму пов’язане з природою самого OpenClaw. Проєкт позиціонується як фундаментальна інфраструктура для AI‑агентів, якою користуються й великі технологічні корпорації, і стартапи, і незалежні розробники. У такій ролі він не може сприйматися як «довгий репозиторій» однієї компанії, інакше довіра екосистеми неминуче постраждає.

Незалежна фундація виконує одразу кілька функцій. Вона має бути точкою координації між численними корпоративними учасниками, які вже долучилися до розробки OpenClaw, від NVIDIA та Microsoft до Red Hat і китайських технологічних гігантів. Вона ж має стати місцем, де ухвалюються стратегічні рішення щодо розвитку проєкту, а не в офісі однієї з компаній‑контриб’юторів.

Фактично йдеться про спробу закріпити в інституційній формі те, що спільнота вже робить де‑факто: розвиває OpenClaw як спільне благо, а не як актив на балансі окремого вендора.

Натхнення від Ghostty: як будується модель управління

Архітектура управління OpenClaw Foundation не виникла з нуля. Штайнбергер прямо вказує на проєкт Ghostty як на джерело натхнення для моделі, яку він намагається застосувати.

Ghostty — це приклад сучасного open‑source‑проєкту, який свідомо вибудовує власне управління так, щоб уникнути класичних пасток: надмірної залежності від одного мейнтейнера, розмитої відповідальності, конфліктів між спільнотою та комерційними інтересами. У випадку Ghostty було створено чітку структуру, яка дозволяє проєкту розвиватися незалежно від того, що відбувається з окремими людьми чи компаніями навколо нього.

OpenClaw Foundation намагається відтворити подібний підхід. Ідея полягає в тому, щоб:

закріпити за фундацією роль «стeward» — опікуна проєкту, який не диктує технічні рішення зверху, але забезпечує сталість, прозорість і довгостроковість;

створити механізми, які дозволяють різним організаціям і незалежним розробникам брати участь в управлінні, не перетворюючи це на «рада директорів однієї корпорації»;

зробити так, щоб жодна зміна власності чи стратегії в окремій компанії не могла автоматично змінити курс OpenClaw.

Усе це виглядає як класична історія про open‑source‑фундації, але в контексті AI‑агентів і темпів зростання OpenClaw завдання стає значно складнішим. Проєкт уже зараз оперує масштабами, які для багатьох інфраструктурних ініціатив були б результатом десятиліть розвитку, а не п’яти місяців.

Банківський «бутлнек»: чому фундація ще не працює на повну

Попри амбіційну модель управління, OpenClaw Foundation поки що обмежена в можливостях через суто практичний фактор: незавершене банківське оформлення у США. Фундація перебуває в стані очікування завершення американської банківської інфраструктури, без якої вона не може повноцінно функціонувати як юридична й фінансова одиниця.

Це означає, що багато речей, які за задумом мали б уже працювати, поки що існують радше на рівні планів і волонтерських зусиль. Фундація не може вільно приймати кошти, укладати контракти, оплачувати роботу чи формувати штат так, як це робить звичайна компанія.

Для проєкту масштабу OpenClaw це створює парадоксальну ситуацію. З одного боку, він уже став критично важливою інфраструктурою для великої кількості користувачів і компаній, включно з тими, хто інтегрує його в комерційні продукти. З іншого — орган, який має забезпечувати його стабільність і розвиток, фактично працює в режимі «тимчасового штабу», обмеженого юридичними й фінансовими рамками.

У класичному стартапі на цьому етапі зазвичай уже є інвестиції, рахунки, штат, юридична оболонка й зрозумілий операційний процес. У випадку OpenClaw Foundation усе це ще тільки добудовується, тоді як навантаження на проєкт уже відповідає зрілій інфраструктурі.

Від волонтерів до штатної команди: наступний етап еволюції

Попри поточні обмеження, план OpenClaw Foundation досить чіткий: перехід від повністю волонтерської моделі до гібридної, де ключові функції виконують повноцінні штатні співробітники. Фундація прямо декларує намір наймати людей на фултайм, які будуть займатися підтримкою й розвитком проєкту як основною роботою.

Йдеться не лише про класичну роль «мейнтейнерів коду». Масштаб OpenClaw означає, що потрібні спеціалісти з безпеки, інженери інфраструктури, люди, які можуть координувати релізи, працювати з корпоративними контриб’юторами, обробляти величезний потік звітів про вразливості й запитів від спільноти.

Сьогодні значна частина цієї роботи виконується людьми, які мають основну роботу в інших компаніях і долучаються до OpenClaw у вільний час. Це дозволило проєкту вирости до нинішніх масштабів, але водночас створює очевидну межу: не всі задачі можна ефективно вирішувати в режимі «вечірніх комітів».

Перехід до моделі зі штатною командою під егідою незалежної фундації має зняти частину цього навантаження з окремих волонтерів і зробити розвиток OpenClaw більш передбачуваним. Але для цього потрібна повноцінна операційна інфраструктура фундації, включно з банківською системою, юридичними процесами й прозорими механізмами фінансування.

«Компанія на хард‑моді»: як виглядає операційна реальність

Штайнбергер описує управління OpenClaw Foundation як «керувати компанією на хард‑моді». Формулювання не випадкове. За обсягом задач фундація вже зараз нагадує невелику технологічну компанію: є продукт, є користувачі, є критична інфраструктура, є безпекові інциденти, є очікування від партнерів і спільноти.

Різниця в тому, що замість співробітників із контрактами й зарплатами — волонтери, яких не можна просто «перепризначити» чи «поставити на завдання». Мотивація, пріоритети й час кожного з них визначаються не внутрішніми політиками фундації, а їхнім власним життям і основною роботою.

Це створює специфічну динаміку. З одного боку, OpenClaw отримує доступ до експертизи людей з провідних компаній світу, які долучаються до проєкту, бо бачать у ньому важливу інфраструктуру для всієї галузі. З іншого — немає гарантії, що критичне завдання буде виконано в конкретний термін, якщо воно не збігається з інтересами чи можливостями волонтерів.

У такій ситуації роль фундації полягає не стільки в директивному управлінні, скільки в оркестрації. Потрібно постійно балансувати між різними джерелами внеску — від індивідуальних контриб’юторів до великих компаній, які виділяють людей фактично на повний робочий день для роботи над OpenClaw. Потрібно визначати пріоритети, не маючи класичних важелів менеджменту. Потрібно будувати процеси, які працюють у середовищі, де формальна влада мінімальна, а неформальний авторитет і довіра — критично важливі.

Це й є «хард‑мод»: усі складності керування технологічним продуктом присутні, але інструменти, до яких звикли в компаніях, або відсутні, або працюють інакше.

Чому модель OpenClaw важлива для майбутнього AI‑агентів

Історія OpenClaw Foundation виходить за межі одного проєкту. Вона демонструє, як може виглядати управління ключовою інфраструктурою в епоху AI‑агентів, коли open‑source‑код стає основою для продуктів і сервісів глобального масштабу.

По‑перше, модель незалежної фундації з чітко артикульованою роллю «опікуна» дає відповідь на питання довіри. Коли проєктом користуються одночасно конкуренти на ринку, важливо, щоб жоден із них не мав привілейованого доступу до важелів управління.

По‑друге, поєднання корпоративної участі (через людей із NVIDIA, Microsoft, Red Hat та інших компаній) і незалежної структури управління показує можливий шлях співіснування бізнес‑інтересів і спільнотної моделі розробки. Компанії можуть інвестувати ресурси в проєкт, не намагаючись перетворити його на власний форк із закритою дорожньою картою.

По‑третє, визнання того, що волонтерська модель має межі, і планований перехід до штатної команди під егідою фундації, сигналізують про дорослішання open‑source‑екосистеми AI. У світі, де агентні системи дедалі глибше інтегруються в критичну інфраструктуру, сподіватися лише на ентузіазм окремих розробників стає ризиковано.

OpenClaw Foundation, попри всі поточні обмеження, фактично тестує новий формат: як виглядає «компанія без власника», яка відповідає за продукт глобального значення й водночас не належить жодній корпорації.

Висновок: інституції для епохи агентів

OpenClaw за п’ять місяців пройшов шлях, який для більшості open‑source‑проєктів розтягується на роки. Такий темп неминуче вимагає не лише технічних рішень, а й нових інституційних форм. Створення OpenClaw Foundation, її свідома незалежність від будь‑якої однієї компанії, орієнтація на модель управління на кшталт Ghostty й водночас визнання того, що все це поки працює в режимі «компанії на хард‑моді» з волонтерами, — важлива частина цієї історії.

Попереду — завершення банківської інфраструктури, формування штатної команди й перехід від героїчних зусиль окремих людей до більш стійкої операційної моделі. Від того, наскільки успішно OpenClaw Foundation пройде цей етап, залежить не лише майбутнє самого проєкту, а й те, як інші ініціативи в галузі AI‑агентів будуть будувати власні моделі управління.

У світі, де агенти дедалі частіше отримують доступ до реальних дій, даних і систем, питання не лише в тому, який код вони виконують, а й у тому, хто й як керує цим кодом. OpenClaw сьогодні — один із найпомітніших полігонів, де ця відповідь формується в реальному часі.


Джерело

State of the Claw — Peter Steinberger

Як не програти AI-революції: освіта, кар’єра і нові стратегії виживання

0

Штучний інтелект уже не просто «інструмент для підвищення продуктивності» — він починає ламати саму логіку того, як люди отримують роботу, будують кар’єру і накопичують капітал. Роман Ямпольський, професор з безпеки ШІ в Університеті Луїсвілля, понад 15 років досліджує питання контролю над AI і прогнозує, що до 2030 року технологічні можливості дозволять автоматизувати до 99% робочих місць. У розмові на каналі Silicon Valley Girl він зосереджується не на далеких абстракціях, а на дуже приземленому питанні: що робити студентам, фахівцям і підприємцям уже зараз, щоб не опинитися зайвими в економіці, де працюють моделі й роботи?

Woman working on computers in an office.

Коли диплом більше не гарантує старт: чому «традиційна кар’єра» тріщить по швах

Сучасна вища освіта все ще побудована навколо старої моделі: ти здобуваєш спеціальність, починаєш із джуніорської позиції, поступово зростаєш до сеньйора, а далі — керівні ролі, частка в компанії, власний бізнес. Але ця драбина вже починає розсипатися саме з нижніх сходинок.

Ямпольський наводить конкретний показник: у його комп’ютерному департаменті зафіксовано 28% падіння кількості кооперативних програм (co-op placements) — тобто тих самих перших оплачуваних позицій для студентів, які дозволяють увійти в професію. Особливо сильно просідає попит на молодших програмістів: компаніям дедалі менше потрібні люди, які «знають C або C++ і ще тільки мають навчитися бути інженерами».

Це не просто локальна статистика одного університету. Це симптом ширшого тренду: саме ті ролі, які традиційно були стартовими — молодші розробники, асистенти, стажери, — виявляються першими під ударом автоматизації. Старші інженери поки що залишаються затребуваними, але, як наголошує Ямпольський, це «дуже короткий термін». У довгій перспективі він вважає, що всі роботи можуть бути автоматизовані.

Ключова зміна полягає не лише в тому, що AI «уміє більше», а в тому, що зникає сам механізм професійного дорослішання. Якщо немає джуніорських позицій, то як виростити наступне покоління сеньйорів? Відповідь, яку дає Ямпольський, доволі похмура: для багатьох нинішніх студентів «майбутнього» в класичному сенсі кар’єрної траєкторії може просто не бути.

Це ставить під сумнів традиційний сенс фрази «піти вчитися на програміста, бо це стабільно». Стабільність у цій галузі вже не гарантована навіть на горизонті кількох років.

Освіта під загрозою: які спеціальності втрачають сенс, а які ще дають фору

На тлі стрімкого прогресу AI постає болюче питання: що саме вчити? Ямпольський не обмежується загальними попередженнями й дає доволі прямі поради.

Один із найжорсткіших його меседжів стосується мовних спеціальностей, орієнтованих на переклад. Він прямо говорить, що системи вже сьогодні можуть повністю автоматизувати переклад для багатьох мов. Так, залишаються нішеві випадки — рідкісні мови, політичний або дипломатичний переклад, де важливі контекст і довіра. Але для масового ринку перекладацьких послуг «майбутнього майже немає». У цьому контексті він навіть радить не обирати спеціальність на кшталт «іспанська для перекладачів» як кар’єрну ставку.

Це показовий приклад того, як AI «з’їдає» не лише рутинні, а й інтелектуальні професії, які ще недавно вважалися доволі захищеними. Переклад — це типова «символьна робота» за комп’ютером, і саме такі завдання, за оцінкою Ямпольського, автоматизуються першими.

Водночас він не закликає повністю відмовлятися від технічної освіти. Навпаки, для студентів комп’ютерних спеціальностей він пропонує тактичний хід: додати до свого профілю «залізну» складову — електротехніку, наноінженерію чи інші напрями, пов’язані з апаратним забезпеченням. Така комбінація, на його думку, може дати «трохи більше захисту» — ще кілька років відносної затребуваності.

Логіка тут проста: когнітивна праця (усе, що робиться за комп’ютером і зводиться до маніпуляції символами) автоматизується першою. Фізична праця — наступна хвиля, яка прийде разом із масовим розгортанням роботів-гуманоїдів. Поки апаратна частина ще складна, дорога й потребує людського втручання, фахівці, які розуміють і софт, і «залізо», мають невелику, але реальну фору.

Однак навіть ця стратегія — не «квиток у безсмертя», а лише спосіб виграти час. Ямпольський прямо говорить: і для когнітивної, і для фізичної праці в довгостроковій перспективі він не бачить принципових обмежень для автоматизації.

Вибір за людьми, а не за технологією: чому «людські» роботи триматимуться довше

Попри те, що Ямпольський вважає: «довгостроково всі роботи можуть бути автоматизовані», він робить важливе уточнення. Між тим, що технологія «може», і тим, що суспільство «вирішує зробити», лежить велика прірва.

Він нагадує: уже сьогодні існують безпілотні автомобілі, але мільйони водіїв усе ще працюють. Причина не лише в технічних обмеженнях, а й у регуляції, культурних очікуваннях, юридичній відповідальності. Технологічна можливість — це одне, масове впровадження в економіку — зовсім інше.

У випадку з майбутнім AGI (системами, здатними виконувати будь-яку когнітивну роботу на рівні людини) Ямпольський формулює простий критерій: будь-яка робота, де роботодавцю або клієнту байдуже, хто її виконує — людина чи машина, — буде автоматизована. Якщо результат однаковий, а модель коштує умовні 20 доларів на місяць, економічна логіка підштовхуватиме до заміни людини.

Це означає, що в короткостроковій перспективі збережуться ті ролі, де є явний або неявний запит саме на людину. Не тому, що людина «краще», а тому, що хтось принципово хоче взаємодіяти з живою особою. Це може бути інтерв’юер, якого обирають саме як людину, а не як «контентну машину». Це можуть бути професії, де важлива довіра, емоційний контакт, відчуття спільності.

Ямпольський підкреслює: питання не в технічній неможливості автоматизації, а в суспільному виборі — «чи ми вирішимо автоматизувати цю роботу, чи віддамо перевагу людині». У цьому сенсі «людськість» стає не просто етичним чи філософським поняттям, а економічним фактором.

Однак розраховувати лише на це — ризиковано. Смаки й норми можуть змінюватися дуже швидко, особливо якщо AI-сервіси стають дешевшими, зручнішими й доступнішими. Те, що сьогодні здається «немислимим без людини», завтра може сприйматися як цілком прийнятна автоматизація.

Підприємець із армією агентів: як змінюється логіка бізнесу

Якщо традиційна модель «найняти команду, щоб будувати компанію» під тиском AI починає хитатися, то на її місце приходить інша: одна людина плюс безліч спеціалізованих агентів.

Ямпольський описує сценарій, який уже частково реалізується: замість того, щоб тримати в штаті юриста, бухгалтера, дизайнера, веброзробника, підприємець може мати десятки AI-агентів, які виконують ці ролі без зарплат, відпусток і лікарняних. Він говорить про можливість мати «35 агентів, які працюють на мене безкоштовно» — від юриста до Lego-дизайнера.

Поки що, визнає він, людина залишається критичною ланкою: саме вона приймає стратегічні рішення, має «смак», розуміє контекст. Але Ямпольський принципово дивиться не на сьогодні, а на те, що «прийде дуже швидко». Якщо з’явиться модель, здатна замінити й цього координатора — людину, яка керує агентами, — тоді економічний сенс утримувати навіть одного працівника стає під питанням.

Це радикально змінює уявлення про те, як виглядає «малий бізнес». Замість команди з десятків людей — одна особа, яка ставить завдання й інтегрує результати роботи численних моделей. Замість довгих років накопичення компетенцій у різних функціях — доступ до готових «цифрових фахівців», які працюють за підпискою.

У цьому є як можливість, так і загроза. З одного боку, бар’єр входу в підприємництво падає: людина без великого стартового капіталу й без команди може запускати проєкти, які раніше вимагали цілих відділів. З іншого — конкуренція може стати ще жорсткішою, а перевага зміститься до тих, хто вміє найкраще формулювати завдання для AI, інтегрувати різні агенти й швидко тестувати ідеї.

Важливий момент у позиції Ямпольського: він не вважає головною загрозою те, що власники великих моделей «вкрадуть вашу бізнес-ідею». Існують побоювання, що LLM, збираючи дані про користувачів, можуть виявляти перспективні ніші й запускати в них власні продукти від імені корпорацій. Але, на його думку, це не основний ризик.

Масштаби, на яких працюють гіганти на кшталт OpenAI чи інших гравців, зовсім інші: якщо хтось збирається залучати трильйони доларів, то «мам-енд-пап» бізнеси не є їхньою прямою ціллю. Набагато серйозніша загроза — це саме широка автоматизація праці як такої. Коли в цілій галузі зникає потреба в людській роботі, це б’є по всіх — і по найманих працівниках, і по дрібних підприємцях, і по середньому бізнесу.

Не конкурувати з AI, а підсилюватися ним: нова стратегія виживання

На тлі цих змін постає ключове питання: що робити окремій людині? Відповідь Ямпольського можна звести до однієї ідеї: не намагатися змагатися з AI в тих завданнях, де він уже перетворює працю на товар, а використовувати його як мультиплікатор власної продуктивності.

Він підкреслює, що традиційні шляхи накопичення багатства — «просто мати роботу» — можуть стати недоступними для значної частини людей. Але це не означає, що «грошей більше заробити не можна». З’являються інші можливості, і одна з найпотужніших — це якраз використання AI як безкоштовної або майже безкоштовної робочої сили для запуску власних ініціатив.

Це може означати різні стратегії залежно від вихідної точки:

для студента — не просто вивчати мову програмування, а паралельно вчитися проєктувати й керувати AI-агентами, комбінувати їх із апаратними навичками, якщо є така можливість;

для фахівця «білої комірцевої» професії — переводити свою експертизу в формат, де AI стає інструментом, а не конкурентом: будувати сервіси, продукти, освітні програми, які масштабуються за рахунок моделей;

для підприємця — мислити не категоріями «найняти ще людей», а категоріями «які функції можна віддати агентам, а де моя унікальна роль як людини».

Ключовий момент: AI уже сьогодні може виконувати значну частину рутинних, стандартизованих завдань. Там, де результат легко формалізувати й перевірити, людина швидко перетворюється на «дорогий і повільний» ресурс. Натомість у завданнях, де важливі постановка проблеми, інтеграція різних рішень, розуміння контексту, етичні й емоційні аспекти, людина поки що залишається незамінною.

Ямпольський не дає рожевих прогнозів щодо того, як довго це триватиме. Але його порада однозначна: використовувати нинішнє «вікно можливостей», поки людина ще є необхідною ланкою в ланцюгу прийняття рішень, щоб створити власні джерела доходу й активи. Чим раніше це зробити, тим більше часу буде, щоб адаптуватися до наступних хвиль змін.

Він також наголошує, що ніхто поки не розуміє, як саме безкоштовна або майже безкоштовна праця AI вплине на вартість грошей, акцій, криптовалют. Немає надійних моделей, які б описували економіку з практично нульовою граничною вартістю виробництва. У такій невизначеності єдине, що виглядає розумним, — мати капітал раніше, а не пізніше, і будувати його не лише через зарплату.

Висновок: освіта й кар’єра як рухома мішень

Світ, у якому студент обирає спеціальність «на все життя», а молодий фахівець може розраховувати на десятиліття кар’єрного зростання в одній галузі, стрімко відходить у минуле. Позиція Романа Ямпольського жорстка, але послідовна: технологічно всі роботи можуть бути автоматизовані, а перші ознаки цього вже видно в зникненні стартових позицій, автоматизації перекладу й інших «символьних» професій.

У цій реальності «правильна освіта» — це не стільки вибір однієї спеціальності, скільки вибір позиції щодо AI. Можна намагатися конкурувати з моделями в перекладі, рутинному програмуванні чи інших стандартизованих завданнях — і програти. А можна будувати траєкторію так, щоб AI ставав інструментом масштабування власних можливостей: через поєднання софту й «заліза», через підприємництво з армією агентів, через ролі, де людина потрібна не лише як виконавець, а як джерело сенсу й рішень.

Це не гарантує безпеки. Але ігнорування цих змін гарантує одне: опинитися в момент, коли традиційні шляхи до кар’єри й багатства вже закриті, а нові — ще не освоєні. Саме цього Ямпольський пропонує уникати, дивлячись не вчорашні статистики, а в те, що «гіперекспоненційно» наближається.


Джерело

AI Safety Expert: No One Is Ready for What’s Coming in 2 Years | Roman Yampolskiy

Як економити токени в Claude Code: вибір моделі без зайвих витрат

0

Економія токенів у середовищах на кшталт Claude Code напряму впливає на вартість роботи з ШІ‑інструментами. Канал KODARIK у новому ролику розбирає один із ключових важелів впливу на витрати — правильний вибір моделі. Нижче — структурований огляд цих рекомендацій.

Code on a computer screen.

Які моделі доступні в Claude Code

У Claude Code можна переглянути доступні моделі командою model. Список включає:

  • дві моделі Sonnet (з різним розміром контексту),
  • дві моделі Opus (також із різним контекстом),
  • одну модель Haiku.

Парні варіанти Sonnet та Opus відрізняються саме обсягом контексту — одна версія підтримує до 1 млн токенів, інша — до 200 тис. токенів.

Контекст — це обсяг інформації, який модель може «тримати в пам’яті» під час роботи: код, попередні повідомлення, інструкції тощо. Чим більший контекст, тим дорожче його використання.

Чому контекст на 1 млн токенів — це додаткові витрати

Моделі з контекстом на 1 млн токенів у Claude Code оплачуються окремо від підписки:

  • додаткова плата не входить у стандартну підписку Claude Code;
  • вартість списується в розділ extra, який оплачується окремо.

Якщо завдання не потребує настільки великого контексту, використання мільйонного варіанта моделі стає прямим перевитрачанням коштів. Для більшості робочих сценаріїв достатньо контексту на 200 тис. токенів.

Haiku, Sonnet чи Opus: коли яку модель обирати

Ключ до економії — підбирати модель під складність завдання, а не використовувати «найпотужнішу» за замовчуванням.

Haiku — для найпростіших задач

Haiku — найекономніша модель з точки зору витрати токенів. Вона підходить для дрібних, локальних змін і простих запитів, наприклад:

  • змінити колір кнопки на сайті;
  • підправити невеликий фрагмент коду;
  • зробити просту правку в стилях чи розмітці.

У таких випадках немає сенсу підключати складніші й дорожчі моделі.

Sonnet — базовий робочий інструмент

Sonnet розробники Claude Code рекомендують як основну модель для 90% щоденних завдань. Вона балансує між:

  • достатнім «інтелектом» для більшості робочих сценаріїв;
  • помірною витратою токенів.

Sonnet доцільно використовувати, коли завдання вже виходить за межі дрібних правок, але ще не потребує максимальної «розумності» та глибокого опрацювання, наприклад:

  • рефакторинг модулів;
  • написання функціоналу середньої складності;
  • робота з кількома файлами коду.

Opus — для складних архітектурних рішень

Opus позиціонується як найрозумніша модель серед доступних. Вона підходить для:

  • продумування архітектури проєкту;
  • обговорення складних технічних деталей;
  • аналізу комплексних систем.

Втім, є важливий нюанс: Opus витрачає приблизно втричі більше токенів, ніж базова Sonnet, для тих самих завдань. Це означає, що бездумне використання Opus там, де достатньо Haiku чи Sonnet, швидко збільшує рахунок.

Принцип економії: складність завдання = «розумність» моделі

Базове правило, яке допомагає тримати витрати під контролем:

  • Прості завдання → прості моделі (Haiku).
  • Типові щоденні задачі → базова модель (Sonnet).
  • Складні, концептуальні, архітектурні задачі → потужні моделі (Opus).

Немає сенсу підключати Opus, щоб змінити колір кнопки: модель працюватиме довше й витратить більше токенів, тоді як Haiku впорається значно дешевше.

Те саме стосується й вибору між контекстом 200 тис. і 1 млн токенів: якщо завдання не вимагає зберігати в пам’яті величезний обсяг коду чи історії, варто обмежитися менш дорогим варіантом.


Джерело

https://www.youtube.com/watch?v=_TnPtwh59N4

П’ять місяців OpenClaw: як народжується новий гігант GitHub

0

Коли австрійський інженер і підприємець Петер Штайнберґер, відомий за iOS‑інфраструктурними проєктами, запустив OpenClaw, це виглядало як ще один амбітний експеримент у сфері агентних AI‑систем. Минуло лише близько п’яти місяців, і тепер він уже виступає з «State of the Claw» на сцені AI Engineer, паралельно працюючи в OpenAI над тим, щоб «агенти стали доступними кожному». За цей короткий час OpenClaw встиг перетворитися на феномен відкритого коду з безпрецедентними показниками зростання.

turned-on laptop

Цей матеріал розбирає саме масштаб і динаміку розвитку OpenClaw за перші п’ять місяців: що означають рекордні GitHub‑метрики, як виглядає спільнота проєкту в цифрах і чому це важливо для всієї екосистеми open source.

Вибухове зростання: коли «хокейна ключка» вже не підходить

У світі GitHub історії успіху зазвичай описують метафорою «хокейної ключки»: роки повільного накопичення зірок і контриб’юторів, а потім різкий злам кривої вгору. OpenClaw, за словами Штайнберґера, не вписується навіть у цю модель. Графік зростання зірок на GitHub у нього не нагадує вигнуту ключку — це майже пряма вертикальна лінія.

На момент виступу проєкту лише близько п’яти місяців, але вже можна зафіксувати кілька ключових фактів.

По‑перше, Штайнберґер стверджує, що OpenClaw — це найшвидше зростаючий проєкт в історії GitHub за кількістю зірок. У просторі, де десятки тисяч репозиторіїв змагаються за увагу, це не просто красива формула для слайдів, а індикатор того, як швидко спільнота AI‑інженерів шукає і приймає нові інструменти.

По‑друге, OpenClaw вже вийшов на перше місце за кількістю зірок серед неосвітніх програмних проєктів. На GitHub є репозиторії‑«магніти» з навчальними матеріалами, туторіалами чи збірками ресурсів, які традиційно збирають величезні аудиторії. Але серед «справжнього» софту — інструментів, фреймворків, платформ — OpenClaw, за оцінкою Штайнберґера, зараз має найбільший зірковий рейтинг.

Це важливе уточнення. Зірки на GitHub — не суворий науковий показник, але вони добре відображають поєднання кількох факторів: впізнаваність бренду, швидкість «сарафанного радіо» серед розробників, відчуття корисності й перспективності проєкту. Для OpenClaw, який стартував без багаторічної історії чи підтримки гігантської корпорації, такий стрибок означає, що ринок агентних систем дозрів до масового експериментування.

30 000 комітів за п’ять місяців: що стоїть за цифрою

Ще один показник, який виділяє OpenClaw серед інших, — це обсяг змін у кодовій базі. Репозиторій уже налічує близько 30 000 комітів, попри те, що проєкту всього п’ять місяців.

Для порівняння, багато зрілих open source‑проєктів ідуть до таких цифр роками. У випадку OpenClaw це означає не просто високу активність, а постійний, майже безперервний ритм розробки. Важливо, що йдеться не про монотонне накопичення технічного боргу, а про швидку еволюцію продукту, який намагається встигати за вибуховим розвитком AI‑інструментів і змінюваними очікуваннями користувачів.

Штайнберґер прямо говорить про «velocity» — швидкість руху — як про ключову характеристику. На момент його виступу був лише початок квітня, але крива активності за місяць уже виглядала як черговий стрімкий підйом. Це означає, що команда й спільнота не просто не сповільнюються, а продовжують нарощувати темп.

Така динаміка має дві сторони. З одного боку, користувачі отримують нові можливості, інтеграції та виправлення з вражаючою швидкістю. З іншого — кожен новий коміт у такому темпі підвищує вимоги до процесів рев’ю, тестування, безпеки й координації. Для проєкту, який ще тільки формує свою інституційну структуру, це створює постійний тиск: як не втратити гнучкість, але водночас не перетворити репозиторій на поле хаотичних експериментів.

Майже 2 000 контриб’юторів: глобальна спільнота за лічені місяці

Якщо зірки й коміти показують зовнішній інтерес і темп розробки, то кількість контриб’юторів відображає глибину залучення спільноти. OpenClaw уже наближається до позначки в 2 000 контриб’юторів — і це при тому, що проєкт ще навіть не відсвяткував півроку.

Ця цифра важлива з кількох причин.

По‑перше, вона демонструє, що OpenClaw не є «one‑man show». Так, Штайнберґер відкрито говорить про свою роль і про те, що на початку значна частина комітів ішла від нього, але паралельно він свідомо працює над тим, що називає «bus factor» — наскільки проєкт залежить від однієї людини. Зростання кількості контриб’юторів означає, що ця залежність поступово зменшується.

По‑друге, така широка база учасників неминуче робить OpenClaw глобальним проєктом. У його розвитку беруть участь інженери з різних компаній і регіонів: згадуються люди з NVIDIA, Microsoft, Red Hat, китайських технологічних гігантів на кшталт Tencent і ByteDance. Частина з них приходить як представники компаній, які активно використовують OpenClaw у своїх продуктах чи дослідженнях, частина — як індивідуальні ентузіасти.

По‑третє, майже 2 000 контриб’юторів за такий короткий час — це сигнал для ширшої екосистеми open source. У класичних інфраструктурних проєктах подібного масштабу (ядро Linux, великі бібліотеки, популярні фреймворки) формування спільноти такого розміру зазвичай займає роки. OpenClaw показує, що в епоху AI‑агентів цикл може бути радикально стиснутим: якщо продукт потрапляє в нерв часу, спільнота формується майже миттєво.

Водночас це створює нові виклики. Координувати внески від тисячі й більше людей, багато з яких приходять вперше й не знайомі з внутрішніми стандартами, — завдання, яке вимагає не лише технічних інструментів, а й чіткої культури, документації та процесів. Саме тому питання управління, фонду й довгострокового утримання проєкту виходять для OpenClaw на перший план, хоча формально йому всього кілька місяців.

30 000 pull request’ів: як виглядає «жива» репозиторійна екосистема

Ще один показник, який підкреслює масштаби активності, — кількість pull request’ів. Репозиторій OpenClaw уже наближається до позначки в 30 000 PR. У поєднанні з 30 000 комітів це малює картину надзвичайно щільного потоку змін.

Pull request — це не просто технічний артефакт. Це одиниця взаємодії в спільноті: пропозиція змін, обговорення, рев’ю, іноді — суперечки й компроміси. Коли таких PR десятки тисяч за кілька місяців, це означає, що в репозиторії постійно кипить життя.

Ця активність має кілька вимірів.

По‑перше, вона показує, що OpenClaw став майданчиком для експериментів. Розробники приносять нові ідеї, інтеграції, оптимізації, фікси. Частина з них потрапляє в основну гілку, частина відсіюється, але сам факт того, що люди готові витрачати час на підготовку PR, говорить про високий рівень залучення.

По‑друге, така кількість запитів на зміну коду створює серйозне навантаження на мейнтейнерів. Кожен PR потрібно хоча б поверхово переглянути, зрозуміти контекст, оцінити ризики. У проєкті, де паралельно йде робота над безпекою, інтеграціями й архітектурними змінами, це перетворюється на окремий фронт роботи.

По‑третє, 30 000 PR за п’ять місяців — це індикатор того, що OpenClaw уже зараз функціонує як міні‑екосистема. У ній є ядро, є периферійні модулі, є інтеграції з іншими сервісами, є інструменти навколо (на кшталт сторонніх «лобстерів» і sandbox‑рішень), які теж часто розвиваються через PR у основний репозиторій. Це не просто бібліотека, а платформа, навколо якої формується власний ландшафт.

Для GitHub така динаміка теж є викликом. Інструменти, які проєктувалися для поступового зростання, стикаються з кейсом, де за півроку проходить обсяг активності, типовий для кількох років життя зрілого проєкту. OpenClaw мимоволі стає тестовим полігоном для того, як сучасні платформи управління кодом витримують навантаження епохи AI‑розробки.

Дві роботи Штайнберґера: OpenAI та OpenClaw як незалежний феномен

Феномен OpenClaw важко відділити від особистої траєкторії його творця. Паралельно з розвитком проєкту Петер Штайнберґер приєднався до OpenAI, де працює над тим, щоб агентні системи стали масовим інструментом. Це додає OpenClaw додаткового контексту: його автор знаходиться в епіцентрі глобальної дискусії про майбутнє AI‑агентів.

Водночас Штайнберґер наголошує, що OpenClaw не є внутрішнім проєктом OpenAI і не «належить» жодній компанії. Для цього він створив окрему структуру — OpenClaw Foundation, змодельовану як незалежну організацію, яка має забезпечити, щоб проєкт не опинився під контролем одного корпоративного гравця.

Фонд ще перебуває на етапі становлення: триває налаштування банківської інфраструктури у США, планується найм повноцінної команди, яка зможе професійно підтримувати й розвивати OpenClaw. Сам Штайнберґер описує керування фондом як «керування компанією в режимі hard mode»: усі обов’язки реального бізнесу, але з волонтерами, яких не можна просто «директивно» спрямувати.

Цей контекст важливий для розуміння того, чому метрики зростання OpenClaw мають значення. Це не внутрішній інструмент великої корпорації, який автоматично отримує доступ до її ресурсів і каналів дистрибуції. Це open source‑проєкт, який за кілька місяців досяг показників, характерних для зрілих екосистем, і тепер змушений дуже швидко доростати інституційно до власного масштабу.

Що означає OpenClaw для екосистеми open source

П’ять місяців — надто короткий термін, щоб робити остаточні висновки про довгострокову долю будь‑якого проєкту. Але вже зараз OpenClaw демонструє кілька трендів, які можуть виявитися визначальними для наступної хвилі open source.

Перший тренд — радикальне скорочення часу від запуску до глобального масштабу. Якщо раніше open source‑проєктам потрібні були роки, щоб зібрати тисячі контриб’юторів і десятки тисяч зірок, то в епоху AI‑агентів цей цикл може вкладатися в кілька місяців. Це створює нові вимоги до мейнтейнерів: вони мають думати про безпеку, управління, фінансування й спільноту майже з першого дня.

Другий — поява проєктів, які одночасно є й інструментами, і платформами. OpenClaw — не просто бібліотека для розробників, а основа для побудови агентних систем, навколо якої швидко виростає екосистема сторонніх рішень, інтеграцій і дослідницьких робіт. Це означає, що успіх чи провал таких проєктів впливатиме не лише на їхніх безпосередніх користувачів, а й на десятки похідних продуктів.

Третій — зміна балансу між індивідуальними авторами, компаніями й фондами. Історія OpenClaw показує, що одна людина може запустити проєкт, який за кілька місяців стане глобальним явищем, але для його утримання потрібна інституційна рамка: фонд, партнерства з компаніями, професійна команда. Водночас незалежність від однієї корпорації залишається ключовою цінністю, особливо в чутливій сфері AI‑агентів.

Четвертий — новий рівень навантаження на інфраструктуру open source. Десятки тисяч комітів і pull request’ів, тисячі контриб’юторів, лавина security‑репортів (які самі по собі стали окремою темою для OpenClaw) — усе це змушує переосмислювати, як мають виглядати інструменти й практики управління відкритими проєктами в епоху AI.

OpenClaw може стати одним із перших великих кейсів, на якому спільнота побачить, як виглядає «новий нормал» для open source у світі, де AI‑інструменти одночасно прискорюють розробку й ускладнюють безпеку, а глобальні спільноти формуються за лічені місяці.

Висновок: п’ять місяців як пролог

За п’ять місяців OpenClaw пройшов шлях, на який багатьом open source‑проєктам потрібні роки: рекордне зростання зірок, найбільший рейтинг серед неосвітніх репозиторіїв, близько 30 000 комітів, майже 2 000 контриб’юторів і майже 30 000 pull request’ів. Це не просто набір вражаючих цифр, а симптом глибших змін у тому, як створюється й масштабується програмне забезпечення в епоху AI‑агентів.

Попереду в OpenClaw — вирішення питань управління, безпеки, фінансування й довгострокової стабільності. Але вже зараз зрозуміло, що цей проєкт став одним із найяскравіших маркерів того, як швидко може виростати й глобалізуватися open source‑ініціатива, якщо вона потрапляє в центр технологічного зсуву.

Для розробників, компаній і дослідників OpenClaw — це не лише інструмент, а й живий експеримент над тим, яким буде наступне десятиліття відкритого програмного забезпечення.


Джерело

State of the Claw — Peter Steinberger

Штучний інтелект на робочому місці: що насправді показує нове опитування Gallup

0

У свіжому випуску подкасту Mixture of Experts від IBM Technology ведучий Тім Хван разом із експертами з індустрії штучного інтелекту обговорює не лише нові моделі на кшталт Claude Opus 4.7 чи стратегію Apple в AI‑пристроях, а й те, як швидко самі працівники починають користуватися AI у повсякденній роботі. Центральним фактом стає нове опитування Gallup: воно фіксує різкий стрибок використання AI серед американців, які мають роботу, і показує, як саме ці інструменти змінюють відчуття продуктивності.

a man is looking through a microscope at a computer

Ці цифри важливі не лише для технологічних компаній. Вони задають рамку для роботодавців, профспілок, розробників продуктів і політиків, які намагаються зрозуміти, чи є AI вже масовим робочим інструментом, чи все ще нішевою технологією. Нові дані Gallup дають досить чітку відповідь: епоха «експериментів на узбіччі» закінчується, і штучний інтелект входить у мейнстрим офісної та знаннєвої праці.

Половина працюючих американців уже користується AI: як швидко росте adoption

Головний сигнал опитування Gallup — масштаб і швидкість проникнення AI в робочі процеси. За останніми даними, близько половини працюючих дорослих американців уже використовують інструменти штучного інтелекту у своїй роботі хоча б кілька разів на рік. Ще квартал тому ця частка становила приблизно 46%. Зростання до близько 50% за один квартал може виглядати не вражаючим у відсоткових пунктах, але в контексті ринку праці це дуже швидкий темп.

Фактично йдеться про те, що за кілька місяців мільйони людей перейшли з категорії «не користуюся» в категорію «користуюся хоча б іноді». Для технологій на кшталт генеративних моделей це типовий момент зламу S‑подібної кривої: коли інструмент перестає бути екзотикою для ентузіастів і стає чимось, що «є у всіх».

Цей перехід підкріплюється й загальним фоном індустрії. Frontier‑моделі — від OpenAI до Anthropic — виходять практично щомісяця, як відзначають учасники подкасту, і кожен реліз на кшталт Claude Opus 4.7 приносить відчутні покращення в кодингу, роботі з довгими завданнями, розумінні інструкцій. Для кінцевих користувачів це означає просту річ: те, що вчора було «занадто сирим», сьогодні вже працює достатньо добре, щоб його можна було впевнено вбудовувати в робочі процеси.

Gallup фіксує цей момент переходу в цифрах. Коли половина працюючих дорослих хоча б іноді звертається до AI, це вже не «пілотні проєкти» окремих компаній, а структурна зміна способу, яким виконується офісна, аналітична, творча й навіть частина операційної роботи.

Щоденні й часті користувачі: хто вже живе в режимі «AI‑first»

Ще один важливий вимір опитування — не просто факт використання, а його частота. Gallup розділяє тих, хто лише епізодично звертається до AI, і тих, для кого це вже повсякденний інструмент.

За даними опитування, 13% працівників кажуть, що використовують AI щодня у своїй роботі. Це вже не «експерименти» — це ознака того, що для значної меншості, але все ж мільйонів людей, інструменти на кшталт чат‑ботів, генераторів коду чи систем аналізу даних стали таким самим звичним робочим середовищем, як електронна пошта чи таблиці.

Ще ширший прошарок — 28% працівників — використовують AI кілька разів на тиждень або частіше. Ця група охоплює не лише «power users», які живуть у середовищі AI, а й тих, хто регулярно підключає його для окремих задач: написання текстів, створення презентацій, аналізу документів, генерації ідей, перевірки коду.

Разом ці дві групи формують ядро частих користувачів, які задають тон для всієї організації. Саме вони найчастіше стають неформальними «евангелістами» всередині команд, показують колегам нові сценарії використання, тиснуть на керівництво з вимогою інтегрувати AI‑інструменти в офіційні процеси й політики.

Те, що майже третина працюючих американців уже використовує AI принаймні кілька разів на тиждень, означає, що дискусія про «чи варто впроваджувати AI» для багатьох компаній де-факто завершена. Питання зміщується до іншого формату: як саме це робити, які інструменти обирати, як будувати безпеку й етику, як вимірювати ефект.

Продуктивність і ефективність: як працівники відчувають вплив AI

Gallup не обмежується вимірюванням частоти використання. Ключовий показник — як самі працівники оцінюють вплив AI на свою продуктивність. І тут картина досить однозначна: 65% опитаних, які використовують AI, кажуть, що ці інструменти підвищили їхню продуктивність і ефективність.

Це важливий сигнал з кількох причин. По‑перше, він показує, що adoption не є суто «згори вниз» ініціативою, коли керівництво нав’язує нові системи в надії на економію витрат. Більшість користувачів відчуває реальну користь — економію часу, зменшення рутини, швидший пошук рішень, кращу якість результату.

По‑друге, це створює певний тиск на тих, хто ще не користується AI. Якщо колеги в тій самій ролі виконують завдання швидше й з меншими зусиллями завдяки інструментам, які доступні всім, виникає природне питання: чи не втрачаю я конкурентну перевагу, і як це вплине на мою кар’єру?

По‑третє, позитивне сприйняття продуктивності може змінювати й ставлення до ризиків. Там, де люди відчувають відчутний виграш, вони частіше готові миритися з недоліками, навчатися новим практикам безпеки, приймати нові політики компанії щодо використання даних. Це створює вікно можливостей для роботодавців, які хочуть системно впроваджувати AI, а не залишати його в сірій зоні «особистих експериментів» працівників.

Водночас 65% — це не 100%. Частина користувачів або не бачить відчутного ефекту, або, можливо, стикається з обмеженнями: неточними відповідями, складністю інтеграції в специфічні робочі процеси, браком часу на навчання. Для розробників продуктів це нагадування: «магія» AI працює не автоматично, а там, де інтерфейси, сценарії й контекст продумані під реальні задачі людей.

Від експериментів до інфраструктури: як Gallup‑цифри змінюють стратегії компаній

Коли половина працюючих дорослих уже хоча б іноді користується AI, а третина робить це регулярно, для бізнесу це означає, що AI перестає бути «опцією» і стає частиною базової інфраструктури знаннєвої праці.

Це має кілька практичних наслідків.

По‑перше, компаніям доводиться переходити від політики «неформального дозволу» до чітких правил. Якщо раніше багато організацій або забороняли використання зовнішніх AI‑сервісів, або закривали очі на те, що працівники самі «гуглять у ChatGPT», то тепер, коли масштаби використання вимірюються десятками відсотків персоналу, питання безпеки даних, конфіденційності, відповідності регуляціям стає критичним.

По‑друге, зростає попит на корпоративні рішення з вбудованими guardrails. Те, як Anthropic позиціонує Claude Opus 4.7 — менш широко здатний, ніж експериментальний Mythos, але з посиленими обмеженнями в чутливих зонах на кшталт кібербезпеки, — добре ілюструє цей тренд. Коли AI‑інструменти стають масовими на робочому місці, компанії хочуть не лише максимальної потужності, а й передбачуваності, контрольованості, можливості формально відповідати внутрішнім і зовнішнім вимогам.

По‑третє, Gallup‑цифри змінюють і кадрові стратегії. Якщо 13% працівників уже щодня працюють з AI, то в багатьох галузях це означає появу нового «базового рівня» цифрової грамотності. Навички формулювання запитів, критичної оцінки відповідей моделей, комбінування кількох інструментів стають не бонусом, а очікуваною частиною профілю кандидата.

Нарешті, для самих розробників AI‑моделей це означає, що «користувач» — це вже не лише розробник чи дата‑саєнтист, а масовий офісний працівник. Звідси акцент на agentic‑можливостях, довгих завданнях, кращому слідуванні інструкціям, який ми бачимо в нових релізах. Моделі мають не просто «відповідати на питання», а брати на себе цілі шматки робочих процесів — від написання коду до підготовки звітів.

Що далі: чи стане AI новим стандартом робочого інструменту

Опитування Gallup фіксує момент, коли штучний інтелект переходить із розряду «інновацій» у розряд «нормальності» для значної частини працюючих американців. Близько 50% користуються AI хоча б кілька разів на рік, 28% — кілька разів на тиждень або частіше, 13% — щодня. І 65% тих, хто вже користується, відчувають реальне зростання продуктивності й ефективності.

На цьому тлі стає зрозуміло, чому ринок моделей рухається в режимі «щомісячних релізів», а великі гравці — від Anthropic до Apple — шукають способи вбудувати AI у все: від хмарних сервісів до окулярів і навушників. Попит уже є, і він не обмежується технологічними компаніями.

Для роботодавців це означає, що питання вже не в тому, чи варто впроваджувати AI, а в тому, як зробити це безпечно, етично й ефективно. Для працівників — що навички роботи з AI стають частиною базового професійного набору. Для розробників — що успіх визначатиметься не лише потужністю моделей, а й тим, наскільки добре вони вбудовуються в реальні робочі сценарії мільйонів людей.

Gallup дає перший чіткий зріз цієї нової реальності. Наступні хвилі опитувань покажуть, чи перетвориться нинішня «половина користувачів» на майже повне охоплення, і чи збережеться при цьому відчуття зростання продуктивності, яке сьогодні є головним аргументом на користь AI на робочому місці.


Джерело

Mixture of Experts — Claude Opus 4.7, Apple’s AI glasses and Allbirds AI pivot (IBM Technology)

Apple готує триєдину ставку на AI-носимі: окуляри, AirPods і кулон-камеру

0

Apple тихо, але наполегливо вибудовує нову лінію продуктів, у центрі якої — штучний інтелект і носимі пристрої. Після обережного старту з Vision Pro компанія формує більш широку, трирівневу стратегію: AI‑окуляри, «прокачані» AirPods та кулон із камерою. Усе це відбувається на тлі змін в AI‑керівництві, залежності від зовнішніх моделей на кшталт Google Gemini та дискусій про те, чи достатньо Apple інвестує у власні фронтирні LLM.

gold padlock on black rope

У подкасті Mixture of Experts від IBM Technology аналітики обговорюють, як ця стратегія вписується в історичний підхід Apple до апаратного забезпечення, чому компанія рухається в середньостроковому горизонті, а не «завтра», і що означає для Купертіно ставка на партнерів у базових AI‑можливостях.

Три носимі пристрої як одна стратегія

Apple не обмежується одним «герой‑девайсом». Замість цього формується три окремі, але взаємодоповнювальні апаратні ставки, які мають стати носіями Apple Intelligence у повсякденному житті.

Перший елемент — AI‑окуляри. Це не Vision Pro другого покоління, а окремий клас продукту, орієнтований на повсякденне носіння, а не на VR/AR як платформу. Ключовий акцент — саме на «AI‑допомозі» в реальному світі: контекстні підказки, розпізнавання об’єктів, навігація, асистент «над» реальністю, а не повне занурення в неї. За наявними планами, Apple готується оголосити про цей продукт наприкінці 2026 або на початку 2027 року, а реліз заплановано на 2027‑й. Це не блискавичний запуск, а чітко окреслений середньостроковий дорожній план.

Другий елемент — посилені AirPods. Вони вже стали одним із наймасовіших носимих пристроїв Apple, але в AI‑епосі їхня роль може радикально змінитися. Мова йде не просто про кращий звук чи шумозаглушення, а про перетворення навушників на постійний голосовий інтерфейс до Apple Intelligence. Це означає більш природну голосову взаємодію, контекстні відповіді, можливо — постійний «фоновий» асистент, який розуміє, що відбувається навколо користувача, завдяки даним з інших девайсів.

Третій елемент — кулон із камерою. Це найбільш експериментальна частина стратегії: компактний пристрій, який носять на шиї, з вбудованою камерою та, ймовірно, мікрофоном. Його завдання — стати «очима й вухами» для AI‑сервісів Apple, фіксуючи моменти з життя, допомагаючи з пам’яттю, пошуком, контекстною аналітикою. На ринку вже були спроби подібних пристроїв, але Apple, як і у випадку з годинником, намагається не бути першою, а стати найкращою в реалізації.

У сукупності ці три продукти утворюють єдину AI‑екосистему, де окуляри дають візуальний шар, AirPods — аудіоінтерфейс, а кулон — постійний сенсорний вхід. Це логічне продовження моделі, яку Apple відпрацьовувала роками: iPhone як центр, а навколо нього — спеціалізовані носимі, що розширюють можливості користувача.

Дорожня карта до 2027 року: чому Apple не поспішає

Очікуваний анонс AI‑окулярів наприкінці 2026 — на початку 2027 року з релізом у 2027‑му чітко показує, що Apple не грає в «гонку релізів щомісяця», яка характерна для ринку фронтирних моделей. Компанія працює в іншому часовому масштабі, де важливіше не швидкість, а зрілість продукту, інтеграція в екосистему й готовність масового ринку.

Такий підхід нагадує історію з Apple Watch. Компанія не була першою в категорії розумних годинників, але змогла задати стандарт ринку завдяки поєднанню дизайну, функціональності та глибокої інтеграції з iPhone. Схожий сценарій проглядається й зараз: Apple не прагне випустити перші AI‑окуляри чи перший кулон‑камеру, але хоче зробити це в момент, коли технології, батареї, моделі та користувацькі сценарії дозріють до масового прийняття.

Водночас досвід Vision Pro показав, що навіть для Apple «бути рано» може бути проблемою. Пристрій не став масовим продуктом — значною мірою через високу ціну й те, що ринок ще не був готовий до такого формату змішаної реальності. Це важливий урок: наступне покоління носимих із AI має бути не демонстрацією технологічних можливостей, а продуктом, який люди реально готові носити щодня.

Тому середньостроковий горизонт для AI‑окулярів виглядає як спроба уникнути повторення історії Vision Pro. Apple отримала час, щоб:

по‑перше, дозріли самі моделі, які будуть працювати на пристроях і в хмарі;

по‑друге, сформувалися зрозумілі сценарії використання, які виходять за межі «демо‑ефекту»;

по‑третє, знизилися витрати на компоненти, що дозволить уникнути цінового бар’єра, подібного до Vision Pro.

Це не означає, що компанія не ризикує. До 2027 року ринок AI‑носимих може суттєво змінитися, і конкуренти вже зараз експериментують з окулярами, камерами й асистентами. Але Apple традиційно робить ставку не на першість, а на контроль над досвідом користувача — і саме це, схоже, визначає темп її дорожньої карти.

Лідерство в AI під питанням: відхід Джона Джаннандреа і ставка на Gemini

На тлі апаратних планів Apple стикається з менш очевидною, але не менш важливою проблемою: хто й на чому будуватиме її AI‑майбутнє. Bloomberg повідомив, що Джон Джаннандреа, який очолював AI‑напрямок Apple і раніше був головним AI‑керівником у Google, залишає компанію. Це не просто кадрова новина — це сигнал про зміну балансу сил у внутрішньому AI‑керівництві.

Паралельно Apple уже зробила стратегічний вибір: у якості «хребта» для Apple Intelligence використовується не власна фронтирна модель, а Google Gemini. Це означає, що для низки ключових можливостей, особливо тих, що потребують великої потужності й складних моделей, Apple покладається на зовнішнього партнера, а не на повністю внутрішню розробку.

Такий крок виглядає прагматичним, якщо врахувати, що, за оцінками учасників подкасту, Apple інвестувала менше капітальних витрат у тренування фронтирних LLM, ніж Google чи Microsoft. Останні роками саме Google, Microsoft (через партнерство з OpenAI) та кілька спеціалізованих лабораторій витрачали десятки мільярдів доларів на дата‑центри, GPU‑кластери й навчання моделей найвищого класу. Apple, натомість, концентрувалася на оптимізації «на пристрої», приватності, енергоефективності та власних чипах.

Результат — асиметрія. У той час як конкуренти будують і володіють фронтирними моделями, Apple змушена комбінувати власні рішення з моделями партнерів. З одного боку, це дозволяє швидко отримати доступ до передових можливостей без необхідності самостійно будувати гігантську інфраструктуру. З іншого — створює залежність, яка може стати критичною, коли мова зайде про унікальні функції AI‑окулярів, кулона чи AirPods.

Відхід Джаннандреа лише підсилює питання: чи зможе Apple вибудувати чітку, довгострокову AI‑стратегію, якщо ключова компетенція в моделях частково знаходиться поза компанією? І як це вплине на дизайн майбутніх носимих, які мають стати «фізичним тілом» Apple Intelligence?

Між Apple Watch і Vision Pro: як Apple переосмислює AI‑залізо

Поточна AI‑апаратна стратегія Apple балансує між двома історіями — успіхом Apple Watch і стриманим прийняттям Vision Pro.

Apple Watch став прикладом того, як компанія може увійти в уже існуючу категорію й переформатувати її під себе. Вона не винайшла розумний годинник, але задала стандарт, який поєднав здоров’я, фітнес, нотифікації та глибоку інтеграцію з iOS. Ключовим було не те, що годинник «умів усе», а те, що він робив кілька речей дуже добре й був органічним продовженням iPhone.

Vision Pro, навпаки, став демонстрацією технологічного максимуму, але не масового продукту. Висока ціна, громіздкий форм‑фактор і відсутність очевидного «must have» сценарію для широкої аудиторії обмежили його вплив. Це не провал, але й не повторення історії iPhone чи Apple Watch.

AI‑окуляри, AirPods і кулон‑камера розташовуються десь посередині. Вони мають потенціал повторити успіх Watch — стати природним продовженням уже знайомих сценаріїв — але водночас несуть ризики Vision Pro, якщо виявляться занадто дорогими, громіздкими або незрозумілими для користувача.

Порівняння з Apple Watch, яке проводять аналітики, виглядає показовим. Apple знову не прагне бути першою: на ринку вже є експерименти з AI‑окулярами, асистентами у формі кулонів і завжди‑увімкненими камерами. Але компанія намагається зайти з іншого боку — через глибоку інтеграцію з екосистемою, продуманий UX і контроль над залізом та софтом.

Водночас Vision Pro нагадує, що «бути найкращим» технічно не гарантує масового успіху. Для AI‑носимих критично важливими будуть:

комфорт і дизайн, які дозволять носити пристрої годинами;

енергоефективність, щоб AI‑функції не «вбивали» батарею за лічені години;

локальні моделі на пристрої, які забезпечать приватність і швидкість;

зрозумілі сценарії, де AI реально економить час або розширює можливості користувача, а не просто демонструє «вау‑ефект».

Саме тут повертається питання про моделі: без сильних, добре інтегрованих AI‑сервісів навіть найкраще залізо ризикує повторити долю Vision Pro — вражати, але не масштабуватися.

Чи купуватиме Apple «мозок» для своїх носимих

На тлі відносно скромних інвестицій Apple у тренування фронтирних LLM учасники дискусії припускають: у довгостроковій перспективі компанія може не лише покладатися на партнерів, а й придбати одного з великих постачальників моделей. Це не констатація планів, а радше логічне продовження нинішньої траєкторії.

Якщо Apple хоче, щоб AI‑окуляри, кулон і AirPods стали не просто «оболонками» для чужих моделей, а унікальними продуктами з власними можливостями, їй потрібен глибший контроль над «мозком» цієї системи. Сьогодні цю роль частково виконує Google Gemini, але стратегічно залежати від конкурента в ключовій технології — ризиковано, особливо коли йдеться про пристрої, які мають бути завжди з користувачем і збирати чутливі дані.

Придбання великого AI‑провайдера могло б миттєво змінити розклад сил: Apple отримала б власну фронтирну модель, команду дослідників і інфраструктуру. Але це також означало б зіткнення з регуляторами, інтеграційні виклики й необхідність різко наростити капітальні витрати на дата‑центри та обчислювальні ресурси.

Поки що компанія обирає більш обережний шлях: комбінує власні моделі на пристрої з потужностями партнерів у хмарі, паралельно готуючи апаратну платформу для майбутніх AI‑сервісів. AI‑окуляри, AirPods і кулон‑камера в цій картині — не кінцева мета, а скоріше «носії», які мають бути готові до того моменту, коли Apple визначиться, наскільки глибоко вона хоче зайти у володіння самими моделями.

Висновок: AI‑носимі як тест на зрілість стратегії Apple

Триєдина ставка Apple на AI‑окуляри, посилені AirPods і кулон‑камеру — це, по суті, тест на зрілість усієї AI‑стратегії компанії. З одного боку, вона спирається на перевірений підхід: не бути першою, але прагнути зробити найкращий продукт, як це було з Apple Watch. З іншого — досвід Vision Pro нагадує, що навіть для Apple немає гарантій, якщо ринок не готовий або продукт занадто дорогий і складний.

Середньостроковий горизонт до 2027 року дає компанії час, але й посилює тиск: конкуренти не стоятимуть на місці, а залежність від зовнішніх моделей, таких як Google Gemini, робить питання власних AI‑компетенцій ще гострішим. Відхід Джона Джаннандреа лише підкреслює, що Apple входить у вирішальну фазу формування свого AI‑майбутнього.

Якщо компанії вдасться поєднати сильний дизайн, глибоку інтеграцію, приватність і достатньо потужні моделі — AI‑окуляри, AirPods і кулон можуть стати наступним великим кроком після iPhone і Apple Watch. Якщо ж ні, вони ризикують поповнити список амбітних, але нішевих експериментів на кшталт Vision Pro. Відповідь на це запитання стане очевидною не завтра, а ближче до 2027 року — саме тоді стане зрозуміло, чи зможе Apple перетворити AI‑носимі з концепту на масовий продукт.


Джерело

Mixture of Experts – Claude Opus 4.7, Apple’s AI glasses and Allbirds AI pivot (IBM Technology)

Втома від «хлопчика, який кричить вовк»: як риторика страху навколо ШІ змінює сприйняття лідерів галузі

0

У новому випуску подкасту 20VC з Гаррі Стеббінгсом обговорюють постать співзасновника Anthropic Даріо Амодея та те, як його публічні попередження про ризики штучного інтелекту впливають на ставлення до компанії, до Самa Альтмана та до всієї дискусії про безпеку ШІ.

Is Anthropic's Dario the Boy Who Cried Wolf?

Феномен Anthropic: «стартап-образа» за $30 млрд

Даріо Амодея в розмові називають потенційно «другим найкращим засновником усіх часів після Ілона», акцентуючи на масштабі досягнень Anthropic за короткий період. За приблизно п’ять років компанія, яку описують як «найкращий стартап-образу всіх часів» (натяк на її походження з конфлікту та розходжень у баченні розвитку ШІ), досягла оцінки в районі $30 млрд.

Такий результат подають як винятковий навіть за мірками Кремнієвої долини: за обмежений час Anthropic перетворилася на одного з ключових гравців у гонці великих мовних моделей, конкуруючи з OpenAI та іншими гігантами.

«Кінець усіх робіт» і «потомство зла»: коли попередження переходять у виснаження

Попри визнання підприємницького таланту Амодея, співрозмовник відверто говорить про втому від постійної риторики загрози. Йдеться про повторювані меседжі, що:

  • «кожна робота буде знищена»,
  • «все є небезпечним»,
  • нові системи на кшталт Mythos можуть стати «потомством зла», якщо з ними поводитися необережно.

Цю лінію поведінки порівнюють із казкою про «хлопчика, який кричить вовк»: коли попередження лунають надто часто й надто гучно, навіть потенційно обґрунтовані застереження перестають сприйматися серйозно. Співрозмовник прямо говорить про «вигорання» від безкінечного нагнітання: «досить уже, я чув це стільки разів».

У підсумку виникає парадокс: навіть якщо ризики реальні, стиль комунікації може знецінювати саму тему безпеки ШІ в очах частини аудиторії.

Повернення «в табір Сема»: як риторика впливає на симпатії

На тлі цієї втоми від постійних попереджень співрозмовник зізнається, що «повернувся в команду Сема» — тобто знову схиляється до позиції, яку асоціює з підходом Сема Альтмана. Це не деталізується як зміна поглядів на технічні чи етичні аспекти ШІ, але подається саме як реакція на стиль публічної комунікації.

Фактично йдеться про те, що:

  • надмірний акцент на катастрофічних сценаріях може відштовхувати навіть тих, хто загалом визнає існування ризиків;
  • баланс між обережністю та прагматизмом у публічних заявах стає важливим фактором репутації лідерів ШІ-компаній;
  • у боротьбі за довіру аудиторії тон і форма повідомлень іноді важать не менше, ніж зміст.

Межа між відповідальністю та алармізмом

Образ «хлопчика, який кричить вовк» у цьому контексті підкреслює ключову дилему для індустрії ШІ: як говорити про реальні загрози — від впливу на ринок праці до потенційно небезпечних застосувань моделей — так, щоб не перетворити дискусію на фон постійної тривоги.

З одного боку, суспільство очікує від лідерів ШІ-компаній чесності щодо ризиків. З іншого — надмірне нагнітання може призвести до зворотного ефекту: люди або відвертаються від теми, або шукають більш «спокійні» голоси, навіть якщо ті не менш зацікавлені в масштабуванні технологій.

У підсумку дискусія навколо Амодея та Anthropic виходить за межі однієї компанії: це симптом ширшої напруги між етикою, бізнес-інтересами та комунікаційними стратегіями в епоху стрімкого розвитку ШІ.


Джерело

YouTube: «Is Anthropic’s Dario the Boy Who Cried Wolf?» — 20VC with Harry Stebbings

Як Китай намагається виграти перегони в AI без найкращих чипів

0

У глобальній гонці штучного інтелекту Китай опинився в ситуації, коли доступ до найсучасніших напівпровідників обмежений. В інтерв’ю на подкасті 20VC with Harry Stebbings пролунала концепція, яка пояснює, як країна намагається компенсувати цей технологічний розрив: ставка робиться не лише на «залізо», а на повний стек — від системного коду до архітектури тренувальних запусків.

AI2

Не чипи, а повний стек: зміна логіки AI-перегонів

Ключова ідея полягає в тому, що перегони в AI — це вже не суто «чипова» історія. Виграє не той, у кого найпотужніший процесор, а той, хто краще проєктує всю систему:

  • системний код і оптимізація на рівні інфраструктури;
  • дизайн обчислювальних кластерів;
  • організація тренувальних запусків моделей;
  • програмні трюки, які «вичавлюють» максимум з наявного заліза.

Якщо немає доступу до найпередовіших чипів, логіка змінюється: замість спроб наздогнати лідерів на рівні «заліза», фокус зміщується на інженерію систем. Ідея проста: зробити так, щоб наявні чипи працювали настільки ефективно, щоб зменшити розрив у продуктивності.

Роль Huawei та оптимізація на кожному шарі

У цьому підході особливе місце займають чипи Huawei та пов’язана з ними обчислювальна інфраструктура. Модель виглядає так:

  • використовуються доступні китайські чипи (зокрема Huawei);
  • навколо них вибудовується спеціально спроєктована інфраструктура для тренування моделей;
  • на кожному шарі стека — від «заліза» до фреймворків — впроваджуються оптимізації продуктивності.

Йдеться про системну роботу: не один проривний компонент, а сукупність дрібних і середніх покращень, які в сумі дають відчутний приріст. Такий підхід дозволяє компенсувати відставання в «номінальній» потужності чипів за рахунок ефективності всієї системи.

Масштабна дистиляція та стратегія відкритих моделей

Ще один важливий елемент — використання західних моделей як орієнтира для власних систем. Застосовується підхід, який описується як «adversarial distillation at scale»:

  • з різних публічних і напівпублічних кінцевих точок збираються відповіді західних state-of-the-art моделей;
  • ці відповіді використовуються для дистиляції — навчання власних моделей, які намагаються відтворити або наблизитися до якості оригіналів;
  • далі ці моделі оптимізуються для максимальних приростів продуктивності на зібраних даних.

Після цього отримані системи публікуються як відкриті моделі. Це створює цикл:

  1. Випуск відкритої моделі.
  2. Реакція спільноти та користувачів.
  3. Збір фідбеку й даних.
  4. Наступний тренувальний запуск з урахуванням нових сигналів.

Повторюючи цей цикл, розробники поступово скорочують відставання від лідерів.

Коли відкритість перестає бути вигідною

У цій стратегії є важливий переломний момент. Коли якість власних моделей наближається до світового фронтиру, логіка змінюється:

  • відкритість корисна на етапі наздоганяння — вона дає дані, фідбек і репутацію;
  • але коли моделі стають достатньо сильними для задоволення внутрішніх потреб, мотивація відкривати їх зменшується.

У певний момент постає питання: якщо моделі вже «на рівні» й добре закривають локальний ринок, навіщо продовжувати відкривати код і ваги? У результаті фокус зміщується з відкритих релізів на задоволення внутрішнього попиту та подальше нарощування можливостей у більш закритому режимі.

Саме завдяки такому поєднанню системної оптимізації та агресивної дистиляції Huawei-чипи вже сьогодні забезпечують у Китаї покращення можливостей, які за рівнем наближаються до того, що дають найкращі рішення на глобальному ринку.


Джерело

YouTube: China’s Secret to Winning in AI — 20VC with Harry Stebbings

Кінець традиційної роботи: як швидко AI з’їдає ринок праці

0

Штучний інтелект уже перестав бути «допоміжним інструментом» і дедалі частіше виступає повноцінним працівником. Роман Ямпольський, професор з безпеки AI в Університеті Луїсвілля, який понад 15 років досліджує питання «чи можемо ми контролювати штучний інтелект», дивиться на це без ілюзій. На його думку, у довгостроковій перспективі всі види праці можуть бути автоматизовані комбінацією AI та робототехніки, а традиційні кар’єрні сходи — від джуніора до сеньйора — руйнуються вже зараз.

AI Safety Expert: No One Is Ready for What's Coming in 2 Yea

Його оцінка звучить різко: до 2030 року технологічні можливості AI дозволять усунути до 99% робочих місць. Це не означає, що за чотири роки всі люди одномоментно втратять роботу, але означає, що технічних обмежень для повної автоматизації майже не залишиться. І перші тріщини в старій моделі зайнятості вже добре видно.

Від «можна автоматизувати» до «вирішили автоматизувати»

Ключова відмінність у погляді Ямпольського — розмежування між тим, що технологія вже може зробити, і тим, що суспільство, бізнес і регулятори вирішать справді впровадити.

Сьогодні існують самокеровані автомобілі, але мільйони водіїв усе ще працюють. Це не тому, що технологія зовсім не працює, а тому, що її безпечність, регуляторні рамки, суспільна довіра й економічні моделі впровадження ще не дозріли. Те саме, на його думку, чекає й на інші професії: технічна можливість замінити людину з’явиться значно раніше, ніж масове реальне впровадження.

Ямпольський підкреслює: його прогноз «99% робочих місць до 2030 року» стосується саме можливостей AI, а не фактичної дати, коли компанії натиснуть кнопку «звільнити всіх». Проте для окремих категорій працівників цей розрив між можливістю та впровадженням уже майже зник.

Особливо це стосується видів діяльності, які він описує як «маніпуляцію символами на комп’ютері» — класичну білу комірцеву працю: аналіз текстів, створення документів, базове програмування, переклад, обробка даних. Там, де результат можна формалізувати і перевірити, AI дуже швидко стає не просто помічником, а повноцінною заміною.

Перші жертви: перекладачі й молодші програмісти

Найочевидніший приклад — переклад. Для багатьох мов, за оцінкою Ямпольського, переклад уже сьогодні може бути повністю автоматизований. Залишаються нішеві випадки: рідкісні мови, дуже специфічні контексти, політична чутливість, де потрібен людський такт і відповідальність. Але масовий ринок — інструкції, сайти, документи, субтитри — стрімко переходить до машин.

У такій ситуації порада «не варто вчитися на перекладача і, наприклад, спеціалізуватися на іспанській заради кар’єри в перекладі» звучить уже не як провокація, а як прагматичний висновок із поточного стану технологій.

Ще більш показовий кейс — програмування. Саме IT довго вважали «професією майбутнього», але саме тут AI починає роз’їдати основу кар’єрної піраміди.

Ямпольський наводить конкретну цифру: його кафедра комп’ютерних наук зафіксувала 28% падіння кількості кооперативних стажувань (co‑op placements) — тих самих перших оплачуваних позицій для студентів, які дозволяють увійти в професію. Попит на джуніорів і студентів, що «прийдуть, щоб їх навчали», різко скорочується.

Молодші програмісти, які вміють лише C або C++, більше не виглядають привабливим активом для компанії, якщо значну частину їхньої роботи може виконати AI‑система, а старші інженери можуть напряму взаємодіяти з моделями, минаючи проміжну ланку.

Це створює парадокс: сеньйорські ролі ще потрібні, але шлях до них через класичну «драбину» — джуніор, мідл, сеньйор — починає руйнуватися. Якщо немає стартових позицій, немає й механізму вирощування наступного покоління сеньйорів.

Сам Ямпольський формулює це жорстко: у нинішніх студентів, які шукають перший досвід, «немає майбутнього» в тій моделі, до якої звикла індустрія. А коли він говорить, що «сеньйори в безпеці лише в дуже короткостроковій перспективі», це означає, що навіть верхні щаблі цієї піраміди не виглядають стабільними на горизонті кількох років.

Коли робот стає «співробітником»: когнітивна праця сьогодні, фізична — завтра

Ще один важливий елемент картини — послідовність, у якій автоматизація торкнеться різних типів праці. На думку Ямпольського, першою хвилею йде саме когнітивна праця: усе, що можна виконати на комп’ютері, де результат — текст, код, таблиця, проєкт, дизайн, юридичний документ.

Це логічно: великі мовні моделі й суміжні системи вже навчилися генерувати тексти, писати код, аналізувати документи, створювати візуальний контент. Їх можна масштабувати майже безкоштовно, а якість у багатьох завданнях уже наближається до людської або перевищує її.

Фізична праця поки що виглядає більш захищеною, але лише тимчасово. Ямпольський очікує, що як тільки виробництво гуманоїдних роботів вийде на промисловий рівень, їх кількість може зрости до мільйонів одиниць упродовж кількох років. Уже зараз такі роботи можна купити, але вони дорогі й поодинокі. Масове виробництво, за аналогією з автомобілями чи смартфонами, радикально змінює ситуацію.

Він проводить паралель із літаючими автомобілями: купити їх технічно можна вже сьогодні, але вони не стали повсюдною реальністю. Те саме, на його думку, тимчасово стримує й роботів. Проте як тільки бар’єр вартості й масштабування буде подолано, фізична праця — від сільського господарства до логістики й побутових послуг — стане наступною великою зоною автоматизації.

У цій логіці «спочатку комп’ютер, потім робот» немає фундаментальних винятків. Ямпольський прямо говорить: у довгостроковій перспективі всі роботи можуть бути автоматизовані. Єдине справжнє питання — не «чи можливо це технічно», а «чи вирішимо ми це зробити».

Хто вирішує, чи залишити людину: компанія, клієнт чи ринок?

Якщо всі роботи технічно можна автоматизувати, постає питання: хто і за якими критеріями вирішуватиме, де все ж таки залишити людину?

Ямпольський формулює простий принцип: як тільки AI досягає людського рівня в певному виді діяльності, будь-яка робота, де роботодавцю неважливо, щоб її виконував саме людина, буде автоматизована першою. Якщо результат однаковий, а AI‑модель коштує умовні 20 доларів на місяць, економічна логіка підштовхує до заміни.

Рішення, за його оцінкою, прийматимуть і компанії, і споживачі. Якщо хтось хоче, щоб його інтерв’ю брав саме живий подкастер, він обере людину. Якщо ж для нього важливі лише якість і ціна, він може погодитися на роботизованого співрозмовника.

Це стосується не лише медіа. У банківських послугах, консалтингу, підтримці клієнтів, бухгалтерії, юридичному супроводі — скрізь, де емоційна складова не є критичною, а результат можна формалізувати, економічний тиск на користь автоматизації буде зростати.

Сьогодні багато підприємців, як, наприклад, згаданий у розмові власник великої маркетингової агенції, вважають, що звільняти людей зарано: «людина плюс десять AI‑агентів» дає більший ефект, ніж просто AI. Але Ямпольський дивиться на наступний крок: якщо завтра з’явиться модель, яка може виконувати й координаційну, і стратегічну роботу цієї людини, чи буде сенс тримати її в штаті?

Поки що такої моделі немає. Стратегічні рішення, «смак», розуміння контексту й відповідальність залишаються за людиною. Але він наголошує: «сьогодні нецікавий, ми й так його бачимо з вікна». Важливо, що буде через кілька років, коли AI наблизиться до людського рівня в дедалі ширшому спектрі завдань.

Зламані кар’єрні сходи й кінець «нормальної» побудови статків

Найбільш руйнівний наслідок цієї динаміки — не просто скорочення окремих професій, а підрив самої моделі, за якою більшість людей будували фінансове життя: отримати освіту, знайти першу роботу, поступово зростати в доходах і відповідальності, інвестувати, накопичувати капітал.

Якщо стартові позиції — джуніорські ролі, стажування, co‑op — зникають, ця модель перестає працювати. Ямпольський прямо говорить: традиційні шляхи накопичення багатства через «просто мати роботу» можуть стати недоступними в світі, де існує штучний загальний інтелект (AGI), здатний виконувати будь-яку когнітивну працю на рівні людини.

AGI він визначає як систему, що може робити все, що може людина в царині розумової праці. Якщо така система стає доступною й дешевою, економічний сенс наймати людину на більшість офісних позицій зникає. А якщо до цього додати гуманоїдних роботів, які беруть на себе фізичну працю, то простір для «звичайної роботи» звужується до ніш, де людська присутність принципово важлива — з етичних, культурних чи емоційних причин.

При цьому Ямпольський не стверджує, що «взагалі не буде способів заробляти гроші». Він наголошує саме на зникненні традиційних шляхів. З’являються інші можливості: AI як безкоштовна команда для запуску бізнесу, десятки спеціалізованих агентів — від юриста до вебдизайнера — доступні кожному. Одна людина може керувати «компанією» з десятків AI‑працівників.

Але це вже зовсім інша економічна реальність, де стартовий капітал, доступ до технологій і швидкість адаптації можуть виявитися важливішими за диплом і роки стажу.

Гіперекспоненційний прогрес і стиснення часових горизонтів

Ще одна причина, чому прогнози Ямпольського звучать настільки тривожно, — темп розвитку AI. Він характеризує його як «гіперекспоненційний» — швидший, ніж класичне експоненційне зростання, до якого часто апелюють, говорячи про технології.

Це видно навіть у зміні очікувань щодо термінів появи AGI. Якщо раніше багато експертів і ринки прогнозували 2045 рік, то зараз, за його словами, прогнозні ринки змістилися до діапазону 2028–2030 років. Тобто те, що ще недавно вважалося справою середини століття, тепер обговорюється як подія найближчих кількох років.

У такій ситуації навіть поради на кшталт «додайте до комп’ютерних наук апаратну складову — електроніку, наноінженерію, це дасть вам ще кілька років захисту» звучать як тимчасовий захід. Сам Ямпольський оцінює цей «запас часу» в лічені роки, поки фізична автоматизація не наздожене когнітивну.

Це стискання часових горизонтів робить традиційні освітні та кар’єрні стратегії ризикованими. Якщо навчання на лікаря чи інженера триває 6–10 років, а прогнозований горизонт радикальної автоматизації — 3–5 років, питання «чи встигну я відбити інвестицію в освіту» перестає бути теоретичним.

Світ із безкоштовною працею: невідомі для економіки

Хоча ця стаття зосереджена на ринку праці, неможливо оминути ще один аспект, який Ямпольський пов’язує з автоматизацією: поява фактично безкоштовної праці як ресурсу.

Якщо AI‑агенти й роботи можуть виконувати більшість завдань за мізерну вартість, це радикально змінює базову економічну аксіому: праця більше не є дефіцитним ресурсом. Він прямо говорить, що ми не маємо жодних якісних досліджень про те, що станеться з вартістю фіатних валют, криптовалют, акцій у світі, де праця майже безкоштовна.

Чи отримаємо ми справжню «економіку достатку», де все надзвичайно дешево виробляти, чи зіткнемося з новими формами нерівності й нестабільності — відкрите питання. Але в будь-якому разі, за його логікою, «краще мати багатство раніше, ніж пізніше», бо традиційні способи його накопичення через зарплату можуть просто зникнути.

При цьому він вважає, що головний ризик — не в тому, що великі гравці на кшталт OpenAI чи інших власників моделей «вкрадуть» ідеї малого бізнесу, використовуючи дані з чатів. Масштаби їхніх амбіцій настільки великі (він згадує спроби залучити трильйони доларів), що «мама й тато з маленькою крамницею» навряд чи є їхньою прямою ціллю. Набагато серйознішим він вважає саме системний ризик: автоматизацію праці як такої.

Висновок: робота як опція, а не як основа життя

Якщо підсумувати позицію Романа Ямпольського, картина виглядає так: технічно ми рухаємося до світу, де майже будь-яку роботу — розумову й фізичну — можуть виконувати AI‑системи й роботи. Першими під удар потрапляють когнітивні професії, особливо ті, що пов’язані з формалізованими завданнями: переклад, базове програмування, рутинна офісна робота. Кар’єрні сходи, які трималися на масовому наймі джуніорів, уже дають тріщину, що видно навіть у статистиці університетських програм.

Далі, із масштабуванням виробництва гуманоїдних роботів, під автоматизацію потрапляє фізична праця. У довгостроковій перспективі, на думку Ямпольського, немає жодної професії, яку не можна було б технічно автоматизувати. Залишається лише питання суспільного вибору: де ми принципово хочемо бачити людину, а де погоджуємося на машину.

У такому світі робота перестає бути гарантованим і універсальним шляхом до фінансової стабільності. Вона стає радше опцією — там, де людська присутність цінується сама по собі, — а не економічною необхідністю для виробництва товарів і послуг. Для нинішніх студентів і молодих фахівців це означає, що план «просто знайти першу роботу й поступово рости» може виявитися не стратегією, а ілюзією, якщо не враховувати темпів розвитку AI.

Чи встигне суспільство адаптуватися — питання відкрите. Але ігнорувати те, що 28% падіння студентських працевлаштувань і зникнення цілих професій уже відбувається тут і зараз, стає дедалі важче.


Джерело

AI Safety Expert: No One Is Ready for What’s Coming in 2 Years | Roman Yampolskiy