У новому випуску подкасту Mixture of Experts від IBM Technology ведучий Тім Хван разом із фахівцями з AI обговорює один із найпомітніших рухів на ринку інфраструктури штучного інтелекту: поглиблення партнерства між Amazon Web Services та лабораторією Anthropic, творцем моделей Claude. На тлі чергового багатомільярдного раунду інвестицій розкривається не лише фінансова, а й технологічна та політична логіка нової епохи — епохи вертикально інтегрованих AI‑стеків, де хмарні гіганти, моделі та спеціалізовані чипи зливаються в єдину систему.

25 мільярдів на кону і понад 100 мільярдів у хмарі
Amazon оголосила про додаткове зобов’язання інвестувати 5 мільярдів доларів в Anthropic. Якщо компанія досягне визначених в угоді віх, загальний потенційний обсяг інвестицій може зрости до 25 мільярдів доларів. Уже сам масштаб цифр ставить цю угоду в один ряд із найбільшими ставками в історії комерційного AI.
Ключовий елемент домовленостей — зустрічний потік грошей у протилежному напрямку. Anthropic погоджується закупити в Amazon хмарні послуги на суму понад 100 мільярдів доларів. Фактично це означає, що майбутнє зростання Claude та пов’язаних сервісів жорстко прив’язується до інфраструктури AWS.
Ця конструкція повторює знайому схему, яка вже стала типовою для ринку: інфраструктурний гравець вкладає капітал у модельну компанію, а та у відповідь зобов’язується масово купувати саме її обчислювальні ресурси. Раніше подібну динаміку можна було спостерігати в зв’язці Nvidia та стартапів, які будують моделі на її GPU. У випадку Amazon–Anthropic ставка робиться не лише на хмару, а й на власні спеціалізовані чипи.
Trainium 2: ASIC як зброя в гонці ефективності
Центральним технічним елементом партнерства стають чипи Trainium 2, до яких Anthropic отримує доступ через AWS. Trainium 2 побудований на базі application‑specific integrated circuits (ASIC) — інтегральних схем спеціального призначення, оптимізованих під конкретні типи навантажень.
На відміну від універсальних GPU, які добре підходять для широкого спектру задач, ASIC‑чипи проектуються під відносно вузький клас операцій. У контексті великих мовних моделей це означає, що архітектура Trainium 2 налаштована саме на типові обчислення, які виконують моделі на кшталт Claude: матричні множення, специфічні патерни пам’яті, характерні послідовності операцій під час тренування та інференсу.
Така спеціалізація дає дві ключові переваги. По‑перше, підвищується продуктивність: за ту саму вартість і в тих самих енергетичних межах можна виконати більше обчислень. По‑друге, зменшується споживання ресурсів, що критично важливо в умовах, коли попит на AI‑обчислення зростає швидше, ніж інфраструктура встигає масштабуватися.
Саме тому для Anthropic, яку в подкасті описують як «надзвичайно обмежену в обчислювальних ресурсах», доступ до Trainium 2 стає не просто ще одним варіантом хмарного заліза, а стратегічною умовою подальшого зростання. Коли попит на Claude перевищує можливості інфраструктури, будь‑який відсоток виграшу в ефективності перетворюється на реальну конкурентну перевагу.
Спільне проєктування чипів і моделей: ефективність з побічним ефектом у вигляді залежності
Однак Trainium 2 — це не просто «швидший чип». Стратегія Amazon передбачає тісне сполучення дизайну цих ASIC із конкретними робочими навантаженнями моделей Claude. Іншими словами, не лише Anthropic оптимізує свої моделі під доступне залізо, а й саме залізо проектується з урахуванням особливостей Claude.
Такий підхід до спільного проєктування чипів і моделей змінює правила гри. Коли апаратна архітектура «зашиває» в себе припущення про структуру й поведінку конкретної моделі, досягається вища щільність продуктивності: ті самі обчислення виконуються швидше, дешевше й енергоефективніше. Для Anthropic це означає можливість тренувати більші, складніші версії Claude або здешевлювати доступ до вже наявних.
Водночас це поглиблює залежність. Модель, тісно оптимізована під Trainium 2, стає менш переносимою на інші типи інфраструктури без втрати ефективності. І навпаки, чип, спроєктований під характерні патерни Claude, не обов’язково так само добре працюватиме з конкурентними моделями.
Учасники подкасту описують це як посилення «hardware–software lock‑in» — зв’язування програмного забезпечення й апаратури в єдиний пакет, із якого складно вийти без суттєвих витрат. Для хмарних провайдерів це спосіб закріпити клієнта на роки вперед. Для модельних лабораторій — компроміс між доступом до найкращих на сьогодні ресурсів і втратою гнучкості в майбутньому.
Вертикальні AI‑стеки: від відкритої екосистеми до контрольованих платформ
Угода Amazon–Anthropic не існує у вакуумі. Її логіка багато в чому дзеркалить іншу знакову зв’язку — Microsoft–OpenAI. В обох випадках формується вертикально інтегрований AI‑стек, який охоплює три рівні: хмарну інфраструктуру, моделі та спеціалізоване залізо.
На верхньому рівні — моделі загального призначення, які стають основою для продуктів, API та сервісів. У випадку Anthropic це лінійка Claude, у випадку OpenAI — GPT‑моделі. На середньому рівні — хмарні платформи, що забезпечують масштабування, розгортання, безпеку та інтеграцію з корпоративними системами. Це AWS для Anthropic і Azure для OpenAI. На нижньому рівні — спеціалізовані чипи, оптимізовані під конкретні моделі й робочі навантаження: Trainium 2 у Amazon, власні AI‑чипи Microsoft та партнерські GPU.
Таке вертикальне з’єднання змінює баланс сил у галузі. Якщо раніше можна було уявити відносно «відкриту» екосистему, де моделі, хмари й залізо комбінуються в різних конфігураціях, то тепер дедалі частіше формується закритий контур: модель тісно пов’язана з конкретною хмарою й конкретним чипом.
У подкасті це прямо описують як рух «від відкритої AI‑екосистеми» до більш контрольованих, пропрієтарних стеків. Спеціалізовані ASIC‑дизайни, заточені під конкретні моделі, роблять перехід між провайдерами дорожчим і технічно складнішим. У результаті зростає переговорна сила тих, хто контролює найнижчий рівень — інфраструктуру й капітал.
Хто тримає важелі: чому зараз більше влади в Amazon
У межах поточної конфігурації учасники розмови доволі однозначно оцінюють розподіл влади в парі Amazon–Anthropic: більше важелів зараз у руках Amazon. Причин кілька.
По‑перше, контроль над інфраструктурою. AWS — один із небагатьох гравців, здатних у короткі строки надати масштаб обчислень, необхідний для тренування й обслуговування моделей рівня Claude. Anthropic описують як «надзвичайно обмежену в обчислювальних ресурсах» компанію, яка «задихається від власного успіху»: попит на її моделі росте швидше, ніж вона може забезпечити обчислювальну базу. У такій ситуації хмарний провайдер стає не просто постачальником, а фактичним «життєвим шлангом» для бізнесу.
По‑друге, контроль над капіталом. Додаткові 5 мільярдів доларів із потенційним збільшенням до 25 мільярдів — це не лише фінансова подушка, а й важіль впливу на стратегічні рішення партнера. Коли значна частина вартості компанії пов’язана з одним інвестором, його пріоритети неминуче враховуються в дорожній карті продукту й інфраструктури.
По‑третє, ефект спеціалізованих чипів. Чим глибше Claude інтегрується з Trainium 2, тим дорожче для Anthropic буде будь‑яка спроба диверсифікуватися в майбутньому — наприклад, перейти на інший хмарний стек або активно використовувати альтернативні чипи. Це посилює позицію Amazon у переговорах і зменшує простір для маневру в Anthropic.
Це не означає, що Anthropic позбавлена будь‑якого впливу. Вона володіє одним із найпомітніших брендів на ринку моделей і технологією, яка потрібна Amazon для конкуренції з Microsoft–OpenAI та іншими гравцями. Але в короткостроковій перспективі саме інфраструктурний партнер виглядає стороною, яка може диктувати більше умов.
Чому ефективність стає стратегічною: 8 мільярдів проти 120
На тлі дискусії про чипи й хмари в подкасті прозвучав ще один важливий прогноз, який пояснює, чому гонка за ефективністю й спільне проєктування чипів і моделей стають настільки критичними.
Очікується, що приблизно за пів року модель із 8 мільярдами параметрів зможе досягти рівня можливостей, порівнянного з нинішніми моделями на кшталт 120‑мільярдних. Іншими словами, те, що сьогодні вимагає гігантських моделей і колосальних обчислювальних ресурсів, завтра зможе виконуватися значно компактнішими системами.
Якщо ця тенденція збережеться, стратегічний фокус зміщується з «максимізації розміру моделі за будь‑яку ціну» до «максимізації корисності на одиницю обчислень». У такому світі виграють ті, хто вміє:
поєднувати архітектурні інновації в моделях із оптимізацією на рівні заліза;
налаштовувати чипи під конкретні робочі навантаження, а не покладатися лише на універсальні GPU;
зменшувати вартість інференсу й тренування без помітної втрати якості.
Саме тут вступає в гру Trainium 2 і подібні йому ASIC‑рішення. Якщо 8‑мільярдна модель, оптимізована під спеціалізований чип, може забезпечити досвід, близький до сьогоднішніх флагманів, але за значно нижчої вартості, це радикально змінює економіку AI‑сервісів. Для хмарних провайдерів це шанс запропонувати клієнтам дешевші й масштабованіші рішення. Для модельних лабораторій — можливість обслуговувати більшу кількість користувачів без пропорційного зростання витрат.
Але водночас це ще більше підштовхує ринок до вертикальної інтеграції. Щоб витиснути максимум із компактних моделей, потрібна глибока координація між тими, хто проєктує архітектуру нейромереж, і тими, хто створює під них залізо. І саме хмарні гіганти мають ресурси, щоб організувати таку координацію на промисловому рівні.
Відкритість проти ефективності: дилема наступного десятиліття
Партнерство Amazon–Anthropic ілюструє фундаментальну дилему, перед якою стоїть AI‑галузь. З одного боку, спеціалізовані ASIC‑чипи, вертикально інтегровані стеки й глибока оптимізація під конкретні моделі дають відчутні виграші в продуктивності й вартості. Без цього, ймовірно, буде складно задовольнити вибуховий попит на AI‑сервіси.
З іншого боку, кожен крок у бік більш тісного hardware–software lock‑in віддаляє ринок від ідеалу відкритої, взаємозамінної екосистеми. Коли моделі, хмари й чипи зливаються в єдині пропрієтарні платформи, зменшується конкуренція на окремих рівнях стеку, а бар’єри входу для нових гравців зростають.
У короткостроковій перспективі клієнти, ймовірно, виграють від дешевших і потужніших сервісів, які забезпечують такі альянси. У довгостроковій — питання в тому, наскільки гнучкими залишаться ці системи й чи зможе ринок уникнути надмірної концентрації влади в руках кількох інфраструктурних гігантів.
Поки що ж угода Amazon–Anthropic демонструє, що ставка зроблена: ефективність, масштаб і вертикальна інтеграція вважаються важливішими за максимальну відкритість. І саме навколо таких альянсів, схоже, формуватиметься нова владна архітектура штучного інтелекту.
Висновок: новий етап AI — це боротьба не лише моделей, а й стеків
Поглиблення партнерства між Amazon і Anthropic показує, що ера «просто великих моделей» добігає кінця. Наступний етап розвитку штучного інтелекту — це конкуренція повних стеків: від спеціалізованих чипів до хмарної інфраструктури й моделей загального призначення.
Trainium 2 і подібні ASIC‑рішення стають не лише інженерними продуктами, а й інструментами політики ринку. З їхньою допомогою хмарні гіганти закріплюють модельні лабораторії у своїх екосистемах, зміщуючи баланс влади на користь тих, хто контролює «залізо й гроші». Прогноз про 8‑мільярдні моделі, здатні зрівнятися з нинішніми 120‑мільярдними, лише підсилює цю тенденцію: у світі, де ефективність стає головною валютою, саме спільне проєктування чипів і моделей визначатиме, хто залишиться в грі.
Для галузі це означає перехід до більш контрольованих, менш взаємозамінних платформ. Для клієнтів — необхідність уважніше дивитися не лише на можливості моделей, а й на те, який саме стек стоїть за ними. А для регуляторів і дослідників — новий раунд дискусій про те, як зберегти конкуренцію й інновації в умовах дедалі глибшої вертикальної інтеграції.


