Коли розмови про штучний інтелект у розробці ПЗ доходять до практики, одна з найдивніших нових реалій — це не моделі, не агенти й навіть не GPU. Це «token maxing» — поведінка, коли інженери навмисно спалюють якомога більше токенів у внутрішніх AI‑сервісах, аби виглядати «інноваційними» в очах менеджменту.

Про це явище детально розповідає Гергелі Орош, колишній інженер Uber і Skyscanner та автор популярної розсилки The Pragmatic Engineer, у розмові на каналі AI Engineer. На прикладах Meta, Microsoft, Salesforce та Coinbase він показує, як великі компанії повторюють старі помилки з вимірюванням продуктивності — тільки тепер замість рядків коду рахують токени.
Що таке token maxing і як він працює всередині корпорацій
«Token maxing» — це неформальний термін для практики, коли співробітники свідомо генерують великий обсяг AI‑запитів і відповідей, аби збільшити свій вимірюваний обсяг використання токенів усередині компанії.
У низці великих гравців індустрії використання внутрішніх AI‑інструментів уже стало метрикою, яку можна подивитися, порівняти й, у деяких випадках, прив’язати до оцінки ефективності.
У Meta та Microsoft існували внутрішні лідерборди, де відображався обсяг AI‑токенів, які «спалює» кожен інженер. У Salesforce пішли ще далі й задали цільовий мінімальний внутрішній AI‑спенд — близько 175 доларів на співробітника на місяць.
У Meta дані про використання AI‑токенів стали одним із кількох показників, які менеджери можуть піднімати під час performance review. Формально це лише один з багатьох сигналів — поряд із дифами, впливом на продукт, участю в код‑рев’ю. Але як і будь-який вимірюваний показник, він легко перетворюється на зброю: низький перформер із низьким токен‑каунтом виглядає як людина, яка «навіть не намагається», а високий перформер із високим токен‑каунтом — як «інноватор, що активно використовує AI».
У такій системі логіка для рядового інженера проста: якщо існує ризик, що низький показник використання AI може бути інтерпретований як відсутність ініціативи, то безпечніше «накрутити» собі токени — навіть якщо це не має жодного сенсу з погляду реальної роботи.
Від лідербордів до сміттєвих агентів: як народжується штучна активність
Коли в компанії з’являється публічний рейтинг використання AI, він майже гарантовано запускає гонку озброєнь. У Meta, за словами Ороша, на лідерборді почали з’являтися люди з «масивними» обсягами токенів, і це налякало багатьох інженерів. Ніхто не хотів опинитися в нижніх 25–50% списку — особливо на тлі хвиль скорочень у галузі.
Звідси — типові сценарії token maxing. Замість того, щоб прочитати документацію, інженер просить внутрішнього AI‑агента її «переказати», ставить додаткові запитання, продовжує діалог, навіть якщо відповіді слабкі й не допомагають у роботі. Мета — не якість результату, а кількість токенів, що проходять через систему.
У Microsoft, за свідченнями співробітників, ситуація місцями доходить до абсурду: деякі інженери запускають автономних AI‑агентів, які генерують відверто сміттєвий контент лише для того, щоб підняти власний токен‑каунт. Це вже не інструмент продуктивності, а гейміфікована метрика, яку можна «накрутити» технічними трюками.
У Meta після критичної публікації про внутрішній лідерборд компанія лідерборд прибрала. Але поведінка не зникла: багато хто продовжує token maxing, виходячи з припущення, що дані все одно десь збираються й можуть бути використані в оцінці.
У Salesforce, де є формалізований мінімальний AI‑спенд у районі 175 доларів на людину на місяць, token maxing набуває ще однієї форми. На початку місяця співробітники можуть «добивати» використання, щоб не опинитися нижче цільового порогу. Це створює дивну культуру, де частина AI‑активності існує не заради бізнес‑цінності, а заради відповідності плану витрат.
Страх, гроші й відбір «терплячих»: чому люди погоджуються на абсурд
На перший погляд, token maxing виглядає як колективне божевілля. Чому висококваліфіковані інженери, які чудово розуміють безглуздість такої метрики, все одно грають у цю гру?
По‑перше, це страх. У великих техкомпаніях базові зарплати інженерів можуть сягати сотень тисяч доларів на рік, не рахуючи акцій. Втрата такої роботи через «неправильну» поведінку щодо модної технології здається надто високим ризиком, щоб його ігнорувати.
Показовий кейс — Coinbase. CEO компанії Браян Армстронг розіслав листа, в якому вимагав від співробітників почати активно користуватися AI‑інструментами. Він попередив, що через тиждень проведе розмови з тими, хто цього не зробить. Приблизно за тиждень, у суботу, щонайменше одного інженера звільнили за невиконання цієї вимоги.
У Coinbase базові зарплати окремих інженерів перебувають у діапазоні 300–400 тисяч доларів на рік до врахування опціонів. Сигнал був однозначним: ігнорувати AI — небезпечно для кар’єри. Після цього, за словами Ороша, «усі просто почали користуватися» інструментами, незалежно від того, наскільки вони реально допомагають у роботі.
По‑друге, це питання культури відбору. Орош проводить паралель із давньою практикою алгоритмічних співбесід у великих техкомпаніях — завдань у стилі LeetCode, які мало корелюють із реальною роботою. Попри багаторічну критику, ці інтерв’ю живуть уже понад два десятиліття.
На його думку, одна з причин — вони відбирають специфічний тип людей: розумних, але готових терпіти відверто безглузді процедури заради доступу до високооплачуваної роботи. Ті, хто погоджується витратити два‑три місяці на інтенсивну підготовку до LeetCode, з високою ймовірністю погодяться й на інші дивні вимоги всередині компанії — включно з token maxing.
У такій логіці token maxing стає не стільки технічною, скільки соціальною практикою. Це спосіб продемонструвати лояльність до корпоративного наративу про «AI‑першість» і знизити власний ризик у системі, де рішення про скорочення часто непрозорі.
Від рядків коду до токенів: старі помилки в новій обгортці
Для Ороша історія з token maxing — це не щось принципово нове, а черговий виток давно знайомої проблеми. У 2010‑х роках на ринку з’явилися інструменти на кшталт Velocity чи Pluralsight Flow, які намагалися вимірювати продуктивність розробників за кількістю рядків коду, числом pull request’ів та іншими простими метриками.
Досвід швидко показав, що такі показники легко маніпулюються й погано відображають реальну цінність роботи. Розробники почали оптимізуватися під метрику: дробити зміни на дрібні PR’и, генерувати зайвий код, уникати складних, але важливих завдань, які не дають «гарних цифр».
Token maxing — прямий нащадок цієї логіки. Замість рядків коду тепер рахують токени, але поведінка людей і спотворення системи залишаються тими самими. Якщо компанія сигналізує, що «більше токенів = краще», то частина співробітників неминуче почне оптимізуватися під це, навіть якщо це означає запускати автономних агентів, які генерують сміття.
Особливо парадоксально, що до таких практик вдаються саме «топ‑раннери» індустрії — Meta, Microsoft, Salesforce. Формально мета благородна: стимулювати експерименти з AI, пришвидшити адаптацію нових інструментів, не відстати від конкурентів. Але інструмент обрано той самий, що вже неодноразово дискредитував себе: проста, легко вимірювана метрика, яка не відображає складність реальної роботи.
У результаті компанії ризикують отримати не хвилю продуктивних AI‑експериментів, а хвилю штучної активності, яка спалює бюджет на inference, перевантажує внутрішні системи й демотивує інженерів, що орієнтуються на реальний вплив, а не на «красиві цифри».
Як лідери загнали себе в пастку метрик AI
Щоб зрозуміти, чому керівництво великих компаній взагалі пішло шляхом вимірювання токенів, варто повернутися на кілька місяців назад.
Ще до появи найсвіжіших моделей на кшталт GPT‑4.5 багато досвідчених інженерів ставилися до AI‑інструментів скептично. На існуючих великих кодових базах ранні версії код‑асистентів були «м’яко корисними», а часто й відверто слабкими: не вміли якісно рефакторити, не знаходили складні баги, плуталися в контексті.
На одному з закритих заходів для CTO в Амстердамі керівник великого нідерландського e‑commerce (фактично «амазону Нідерландів») скаржився, що його інженери мало користуються AI‑інструментами й не бачать у них сенсу. Поруч представник центрального банку Нідерландів відповів, що в них такої проблеми немає: їхня місія — регулювати AI, тож інженери мотивовані розбиратися з інструментами, навіть якщо вони ще неідеальні.
На цьому тлі з’являються історії на кшталт Anthropic, яка публічно заявляє, що значна й зростаюча частка її коду пишеться за допомогою власних інструментів, таких як Claude Code. Виручка компанії стрімко зростає, і для зовнішніх спостерігачів це виглядає як пряма кореляція між масовим використанням AI та бізнес‑успіхом.
Менеджмент інших компаній легко робить висновок: якщо наші інженери не користуються AI, ми відстаємо. Якщо вони почнуть користуватися більше, «щось хороше» має статися. Звідси — бажання не просто рекомендувати, а вимагати використання AI, підкріплюючи це вимірюваними цілями: токени, долари на inference, кількість запитів.
Усередині багатьох організацій це виглядає як свідомий компроміс: так, ми розуміємо, що метрика недосконала й може стимулювати дивну поведінку, але вважаємо, що це краще, ніж повна відсутність тиску. Логіка «погана метрика краще, ніж ніякої» штовхає компанії в ту саму пастку, в якій вони вже були з рядками коду й pull request’ами.
Чому token maxing — симптом глибшої проблеми з AI‑продуктивністю
Token maxing не виник би, якби AI‑інструменти однозначно й очевидно робили всіх розробників суттєво продуктивнішими. Тоді не було б потреби в примусі, лідербордах і мінімальних бюджетах: інженери самі б масово переходили на нові інструменти.
Реальність складніша. Навіть усередині компаній, які активно експериментують з AI, результати неоднорідні. У Meta невелике дослідження за участю близько 30 людей показало цікавий розрив між відчуттями та реальністю: учасники відчували себе приблизно на 20% продуктивнішими з AI‑інструментами, але за вимірюваними результатами в середньому були на 20% менш продуктивними.
У цьому експерименті був один яскравий виняток — учасник, який став помітно ефективнішим завдяки AI. Але загальна картина свідчить: для більшості інженерів інтеграція AI в робочий процес — це не миттєвий буст, а складний навик, який вимагає часу, експериментів і зміни звичок.
Цю думку підтверджує й досвід розробників, які глибоко занурені в тему. Британський інженер і блогер Саймон Віллісон, відомий своєю роботою над Django та дослідженнями prompt‑ін’єкцій, після двох років активного використання AI‑інструментів описує їх як «річ, у якій дуже важко стати справді хорошим». Немає готового мануалу; доводиться постійно змінювати робочі процеси, тестувати нові підходи, вчитися на помилках.
На цьому тлі token maxing виглядає як спроба пришвидшити культурну адаптацію до AI адміністративними методами. Замість того, щоб інвестувати в навчання, зміну процесів і реалістичні очікування, компанії намагаються «виміряти» використання й підштовхнути людей до інструментів через страх і конкуренцію.
Результат — паралельне існування двох реальностей. В одній AI справді допомагає: команди, які готові відмовлятися від старих припущень і мають низьке его, поступово знаходять ефективні способи інтеграції інструментів у свою роботу. В іншій — інженери запускають автономних агентів, які генерують сміття, щоб не опинитися внизу лідерборда.
Чого навчає історія token maxing компанії, які будують AI‑стратегію
Token maxing — це не просто курйоз із корпоративних кулуарів. Це попередження для будь‑якої організації, яка сьогодні намагається «оцифрувати» вплив AI через прості метрики.
По‑перше, вимірювати використання AI варто дуже обережно. Кількість токенів, запитів чи витрачених доларів може бути корисною операційною метрикою для контролю витрат і планування інфраструктури. Але як тільки вона стає проксі для продуктивності або інноваційності окремих людей, система починає стимулювати хибну поведінку.
По‑друге, тиск згори працює, але має побічні ефекти. Приклад Coinbase показує, що жорсткі вимоги до використання AI швидко змінюють поведінку співробітників. Але це не гарантує, що інструменти використовуються розумно. Часто це лише переводить дискусію з площини «чи варто взагалі користуватися AI» у площину «як зробити вигляд, що я ним користуюся достатньо активно».
По‑третє, історія з LeetCode‑інтерв’ю та token maxing нагадує: культура відбору кадрів визначає, як організація реагує на абсурдні вимоги. Якщо компанія десятиліттями відбирає людей, готових терпіти безглузді процедури заради високої зарплати, не варто дивуватися, що вони так само терпляче гратимуть у гру з токенами.
Нарешті, головний урок — AI‑продуктивність не зводиться до однієї цифри. Вона залежить від якості інструментів, зрілості процесів, готовності команд змінювати звички й навіть від того, наскільки чесно організація говорить про обмеження технології. Просте «більше токенів = краще» не працює й веде до тих самих помилок, які індустрія вже проходила з рядками коду та pull request’ами.
Висновок: AI як інструмент чи як KPI
Token maxing — це симптом того, що штучний інтелект у великих компаніях часто сприймають не як інструмент, а як KPI. Коли використання AI стає самоціллю, а не засобом досягнення результатів, з’являються лідерборди, мінімальні бюджети на токени й автономні агенти, що генерують сміття.
Парадокс у тому, що саме ті компанії, які найбільше говорять про «data‑driven» підхід, знову й знову обирають найпростіші, але найменш осмислені метрики. Історія з token maxing показує: якщо AI‑стратегія зводиться до того, щоб «змусити всіх користуватися інструментами й порахувати токени», то проблема не в моделях і не в інженерах, а в управлінні.
Справжній виклик для великих гравців — навчитися вимірювати не те, скільки токенів спалює команда, а те, як змінюється якість продукту, швидкість поставки функцій, надійність систем. Це складніше, повільніше й не так ефектно виглядає в презентаціях для інвесторів. Але тільки такий підхід дає шанс, що AI стане реальним драйвером продуктивності, а не ще однією модною метрикою, яку інженери навчилися обходити.
Джерело
How AI is changing Software Engineering: A Conversation with Gergely Orosz, @pragmaticengineer