У глобальній гонці штучного інтелекту Китай опинився в ситуації, коли доступ до найсучасніших напівпровідників обмежений. В інтерв’ю на подкасті 20VC with Harry Stebbings пролунала концепція, яка пояснює, як країна намагається компенсувати цей технологічний розрив: ставка робиться не лише на «залізо», а на повний стек — від системного коду до архітектури тренувальних запусків.

Не чипи, а повний стек: зміна логіки AI-перегонів
Ключова ідея полягає в тому, що перегони в AI — це вже не суто «чипова» історія. Виграє не той, у кого найпотужніший процесор, а той, хто краще проєктує всю систему:
- системний код і оптимізація на рівні інфраструктури;
- дизайн обчислювальних кластерів;
- організація тренувальних запусків моделей;
- програмні трюки, які «вичавлюють» максимум з наявного заліза.
Якщо немає доступу до найпередовіших чипів, логіка змінюється: замість спроб наздогнати лідерів на рівні «заліза», фокус зміщується на інженерію систем. Ідея проста: зробити так, щоб наявні чипи працювали настільки ефективно, щоб зменшити розрив у продуктивності.
Роль Huawei та оптимізація на кожному шарі
У цьому підході особливе місце займають чипи Huawei та пов’язана з ними обчислювальна інфраструктура. Модель виглядає так:
- використовуються доступні китайські чипи (зокрема Huawei);
- навколо них вибудовується спеціально спроєктована інфраструктура для тренування моделей;
- на кожному шарі стека — від «заліза» до фреймворків — впроваджуються оптимізації продуктивності.
Йдеться про системну роботу: не один проривний компонент, а сукупність дрібних і середніх покращень, які в сумі дають відчутний приріст. Такий підхід дозволяє компенсувати відставання в «номінальній» потужності чипів за рахунок ефективності всієї системи.
Масштабна дистиляція та стратегія відкритих моделей
Ще один важливий елемент — використання західних моделей як орієнтира для власних систем. Застосовується підхід, який описується як «adversarial distillation at scale»:
- з різних публічних і напівпублічних кінцевих точок збираються відповіді західних state-of-the-art моделей;
- ці відповіді використовуються для дистиляції — навчання власних моделей, які намагаються відтворити або наблизитися до якості оригіналів;
- далі ці моделі оптимізуються для максимальних приростів продуктивності на зібраних даних.
Після цього отримані системи публікуються як відкриті моделі. Це створює цикл:
- Випуск відкритої моделі.
- Реакція спільноти та користувачів.
- Збір фідбеку й даних.
- Наступний тренувальний запуск з урахуванням нових сигналів.
Повторюючи цей цикл, розробники поступово скорочують відставання від лідерів.
Коли відкритість перестає бути вигідною
У цій стратегії є важливий переломний момент. Коли якість власних моделей наближається до світового фронтиру, логіка змінюється:
- відкритість корисна на етапі наздоганяння — вона дає дані, фідбек і репутацію;
- але коли моделі стають достатньо сильними для задоволення внутрішніх потреб, мотивація відкривати їх зменшується.
У певний момент постає питання: якщо моделі вже «на рівні» й добре закривають локальний ринок, навіщо продовжувати відкривати код і ваги? У результаті фокус зміщується з відкритих релізів на задоволення внутрішнього попиту та подальше нарощування можливостей у більш закритому режимі.
Саме завдяки такому поєднанню системної оптимізації та агресивної дистиляції Huawei-чипи вже сьогодні забезпечують у Китаї покращення можливостей, які за рівнем наближаються до того, що дають найкращі рішення на глобальному ринку.
Джерело
YouTube: China’s Secret to Winning in AI — 20VC with Harry Stebbings


