Пока разговоры о» пузыре » искусственного интеллекта заполняют информационное пространство, сопровождаясь опасениями чрезмерных инвестиций, которые в любой момент могут обвалиться, на практике формируется противоположная картина: такие компании, как Google и OpenAI, едва успевают строить инфраструктуру, достаточную для обеспечения собственных потребностей в сфере искусственного интеллекта.
Во время общекорпоративной встречи в начале этого месяца руководитель подразделения инфраструктуры искусственного интеллекта Google Амин Вахдат сообщил сотрудникам, что компания должна удваивать свои вычислительные мощности каждые шесть месяцев, чтобы соответствовать растущему спросу на услуги с искусственным интеллектом, о чем информирует CNBC. Вахдат, занимающий должность вице-президента Google Cloud, продемонстрировал слайды, на которых отмечалось, что компании необходимо масштабировать свои возможности «в следующие 4-5 лет в 1000 раз».
Хотя сам по себе тысячекратный рост вычислительных мощностей выглядит крайне амбициозно, Вахдат обратил внимание на ключевые ограничения: Google должен обеспечить это увеличение возможностей, вычислительных ресурсов и сетевого хранения данных «фактически за ту же стоимость и, что более важно, при том же уровне энергопотребления». По его словам, «это будет непросто, но благодаря сотрудничеству и совместному проектированию результат будет достигнут».
Остается не до конца понятным, какая часть упомянутого «спроса» отражает органический интерес пользователей к возможностям искусственного интеллекта, а какая — является следствием интеграции AI-функций в уже имеющиеся сервисы компании, такие как Search, Gmail и Workspace. Однако независимо от того, используются ли эти функции добровольно или встраиваются в привычные продукты, Google является не единственной технологической компанией, которая сейчас не успевает за стремительным ростом базы пользователей AI-сервисов.
Крупные технологические корпорации должны участвовать в реальных гонках по созданию новых центров обработки данных. Конкурент Google — компания OpenAI-планирует возвести шесть масштабных дата-центров на территории США в рамках совместного проекта Stargate с SoftBank и Oracle, инвестировав более 400 миллиардов долларов в течение следующих трех лет для достижения почти 7 гигаватт мощности. Компания сталкивается с аналогичными ограничениями при обслуживании своих 800 миллионов еженедельных пользователей ChatGPT. Даже платные подписчики регулярно достигают лимитов использования таких функций, как синтез видео и модели имитации рассуждения.
«Конкуренция в сфере AI-инфраструктуры является самой критичной и в то же время самой дорогой частью этой гонки», — отметил Вахдат во время встречи, согласно просмотренным CNBC материалам презентации. Руководитель направления инфраструктуры пояснил, что вызовы для Google не сводятся к простому превышению расходов конкурентов. » Мы потратим много«, — сказал он, добавив, что настоящая цель состоит в том, чтобы создать инфраструктуру, которая будет»более надежной, продуктивной и масштабируемой, чем что-либо еще на рынке».
Одним из ключевых узких мест в удовлетворении спроса на искусственный интеллект стала ограниченная способность Nvidia производить достаточное количество графических процессоров, которые ускоряют вычисления, связанные с ИИ. Всего несколько дней назад во время квартального отчета о прибылях и убытках Nvidia сообщила, что ее чипы AI «распроданы» в попытке догнать спрос, который за один квартал увеличил выручку центра обработки данных компании на 10 миллиардов долларов.
Нехватка чипов и другие ограничения инфраструктуры напрямую влияют на способность Google развертывать новые функции ИИ. Во время той же встречи 6 ноября генеральный директор Google Сундар Пичаи привел пример Veo — инструмента для генерации видео, который получил обновление в прошлом месяце. «Когда Veo вышел, это было действительно захватывающе», — отметил Пичаи. «Если бы мы могли предоставить его большему количеству людей в приложении Gemini, мы, вероятно, получили бы больше пользователей, но не смогли бы этого сделать из-за ограничений со стороны вычислительных ресурсов».
Во время той же встречи презентация Вахдата описала, как именно Google планирует достичь своих масштабных целей без простого «заливания проблемы деньгами». Компания намерена опираться на три ключевые стратегии: строительство физической инфраструктуры, разработку более эффективных моделей искусственного интеллекта и создание собственных специализированных кремниевых чипов.
Использование собственных чипов позволяет Google не полностью полагаться на оборудование Nvidia для разработки своих возможностей ИИ. Так, в начале этого месяца компания объявила об общей доступности своего тензорного процессора седьмого поколения TPU под названием Ironwood. Согласно заявлению Google, он «почти в 30 раз более энергоэффективен», чем первая версия Cloud TPU, выпущенная в 2018 году.
Учитывая широкое признание потенциального «пузыря» в индустрии искусственного интеллекта, включая пространные комментарии Пичаи в недавнем интервью BBC, агрессивные планы по расширению сети дата-центров отражают расчет Google на то, что риск недоинвестирования выше риска формирования избыточных мощностей. В то же время это остается ставкой, которая может оказаться чрезвычайно дорогой, если спрос не продолжит расти в соответствии с ожиданиями.
Во время упомянутой встречи Пичаи сообщил сотрудникам, что 2026 год будет «интенсивным», учитывая как конкуренцию в сфере искусственного интеллекта, так и давление, связанное с необходимостью удовлетворять спрос на облачные и вычислительные ресурсы. Он также напрямую отреагировал на опасения сотрудников по поводу вероятного пузыря ИИ, признав, что эта тема «определенно присутствует в общественном дискурсе».



