Поки розмови про «бульбашку» штучного інтелекту заповнюють інформаційний простір, супроводжуючись побоюваннями надмірних інвестицій, які будь-якої миті можуть обвалитися, на практиці формується протилежна картина: такі компанії, як Google та OpenAI, ледь встигають будувати інфраструктуру, достатню для забезпечення власних потреб у сфері штучного інтелекту.
Під час загальнокорпоративної зустрічі на початку цього місяця керівник підрозділу інфраструктури штучного інтелекту Google Амін Вахдат повідомив співробітникам, що компанія має подвоювати свої обчислювальні потужності кожні шість місяців, аби відповідати зростаючому попиту на послуги зі штучним інтелектом, про що інформує CNBC. Вахдат, який обіймає посаду віцепрезидента Google Cloud, продемонстрував слайди, на яких зазначалося, що компанії необхідно масштабувати свої можливості «у наступні 4–5 років у 1000 разів».
Хоча саме по собі тисячократне зростання обчислювальних потужностей виглядає вкрай амбітно, Вахдат звернув увагу на ключові обмеження: Google має забезпечити це збільшення можливостей, обчислювальних ресурсів та мережевого зберігання даних «фактично за ту саму вартість і, що ще важливіше, при тому самому рівні енергоспоживання». За його словами, «це буде непросто, але завдяки співпраці та спільному проєктуванню результату буде досягнуто».
Залишається не до кінця зрозумілим, яка частина згаданого «попиту» відображає органічний інтерес користувачів до можливостей штучного інтелекту, а яка — є наслідком інтеграції AI-функцій у вже наявні сервіси компанії, такі як Search, Gmail та Workspace. Проте незалежно від того, чи використовуються ці функції добровільно, чи вбудовуються у звичні продукти, Google є не єдиною технологічною компанією, яка нині не встигає за стрімким зростанням бази користувачів AI-сервісів.
Великим технологічним корпораціям доводиться брати участь у справжніх перегонах зі створення нових центрів обробки даних. Конкурент Google — компанія OpenAI — планує звести шість масштабних дата-центрів на території США в межах спільного проєкту Stargate із SoftBank та Oracle, інвестувавши понад 400 мільярдів доларів упродовж наступних трьох років для досягнення майже 7 гігават потужності. Компанія стикається з аналогічними обмеженнями під час обслуговування своїх 800 мільйонів щотижневих користувачів ChatGPT. Навіть платні передплатники регулярно досягають лімітів використання таких функцій, як синтез відео та моделі імітації міркування.
«Конкуренція у сфері AI-інфраструктури є найкритичнішою і водночас найдорожчою частиною цієї гонки», — зазначив Вахдат під час зустрічі, згідно з переглянутими CNBC матеріалами презентації. Керівник напряму інфраструктури пояснив, що виклики для Google не зводяться до простого перевищення витрат конкурентів. «Ми витратимо багато», — сказав він, додавши, що справжня мета полягає у створенні інфраструктури, яка буде «більш надійною, продуктивною та масштабованою, ніж будь-що інше на ринку».
Одним із ключових вузьких місць у задоволенні попиту на штучний інтелект стала обмежена спроможність компанії Nvidia виробляти достатню кількість графічних процесорів, які пришвидшують обчислення, пов’язані з AI. Лише кілька днів тому під час квартального звіту про прибутки Nvidia повідомила, що її AI-чипи «розпродані», намагаючись наздогнати попит, який за один квартал збільшив дохід центру обробки даних компанії на 10 мільярдів доларів.
Дефіцит чипів та інші інфраструктурні обмеження безпосередньо впливають на здатність Google розгортати нові AI-функції. Під час тієї ж зустрічі 6 листопада генеральний директор Google Сундар Пічаї навів приклад Veo — інструмента для генерації відео, який отримав оновлення минулого місяця. «Коли Veo вийшов, це було справді захопливо», — зазначив Пічаї. «Якби ми могли надати його більшій кількості людей у застосунку Gemini, ми, імовірно, отримали б більше користувачів, але не змогли цього зробити через обмеження з боку обчислювальних ресурсів».
Під час цієї ж зустрічі презентація Вахдата окреслювала, як саме Google планує досягти своїх масштабних цілей без простого «заливання проблеми грошима». Компанія має намір спиратися на три ключові стратегії: будівництво фізичної інфраструктури, розробку більш ефективних моделей штучного інтелекту та створення власних спеціалізованих кремнієвих чипів.
Використання власних мікросхем дає Google змогу не покладатися повністю на апаратне забезпечення Nvidia для розвитку своїх AI-можливостей. Так, на початку цього місяця компанія оголосила про загальну доступність свого тензорного процесора сьомого покоління TPU під назвою Ironwood. За заявою Google, він є «майже в 30 разів енергоефективнішим», ніж перша версія Cloud TPU, випущена у 2018 році.
З огляду на широке визнання потенційної «бульбашки» в індустрії штучного інтелекту, включно з розлогими коментарями Пічаї у недавньому інтерв’ю BBC, агресивні плани з розширення мережі дата-центрів відображають розрахунок Google на те, що ризик недоінвестування є вищим за ризик формування надлишкових потужностей. Водночас це залишається ставкою, яка може виявитися надзвичайно дорогою, якщо попит не продовжить зростати відповідно до очікувань.
Під час згаданої зустрічі Пічаї повідомив співробітникам, що 2026 рік буде «інтенсивним», з огляду як на конкуренцію у сфері штучного інтелекту, так і на тиск, пов’язаний із необхідністю задовольняти попит на хмарні та обчислювальні ресурси. Він також безпосередньо відреагував на занепокоєння працівників щодо ймовірної AI-бульбашки, визнавши, що ця тема «безперечно присутня в суспільному дискурсі».



