Український техноподкаст УТ‑2, де розробники обговорюють практичне використання великих мовних моделей, давно перетворився на неформальний майданчик для «польових звітів» з фронту AI‑інструментів. У черговому випуску ведучі діляться тим, як поводиться Claude Opus у довгих сесіях, що відбувається з якістю відповідей після серії помилок, як на роботу моделей впливають українські промпти та чому вони все серйозніше дивляться в бік локального запуску моделей замість хмарних API.

Це не теоретичні міркування, а досвід людей, які щодня пишуть код разом з LLM, підключають їх до тулінгу, будують навколо них робочі пайплайни й уважно стежать за рахунками за токени.
Деградація в межах однієї сесії: коли модель починає «тупіти»
Один із найцікавіших спостережень стосується поведінки Claude Opus у довгих інтерактивних сесіях, де модель не просто відповідає на запит, а керує інструментами: запускає bash‑команди, читає файли, редагує код.
Ведучі помітили характерний патерн: якщо в межах однієї сесії модель кілька разів поспіль «фейлиться» — наприклад, запускає команду, отримує exception, повторює спробу з незначними змінами й знову падає, — її якість помітно деградує. На практиці це виглядає так, ніби внутрішній стан моделі «ламається».
Поки все йде гладко, Claude поводиться як розумний асистент: аналізує помилки, коригує дії, рухається до мети. Але після серії невдач починається дивна інерція: модель повторює одні й ті самі невдалі дії, зациклюється на одній команді, ігнорує очевидні варіанти на кшталт прочитати документацію чи викликати --help.
В одному з кейсів Opus після кількох послідовних фейлів узагалі «застряг» на спробі передати файл і так і не зміг виконати навіть цю базову операцію. Замість того, щоб змінити підхід, модель продовжувала битися в ту саму стіну.
Це важливий сигнал для тих, хто будує навколо LLM довгі автоматизовані сценарії. Мова не лише про те, що модель може помилятися — це очікувано. Йдеться про накопичувальний ефект: кожна невдала спроба не просто не дає результату, а погіршує подальшу поведінку в межах тієї ж сесії.
Звідси й радикальна порада, яка звучить у розмові: іноді інстанс моделі варто просто «пристрелити» й запустити заново. Перезапуск сесії виявляється ефективнішим, ніж спроби «витягнути» модель із деградованого стану додатковими підказками.
«Подихай і перечитай контекст»: як один промпт розрулює зациклення
Попри це, ведучі знайшли менш радикальний, але дуже дієвий прийом. Один із них вбудував у свій пайплайн спеціальний захисний механізм: якщо в сесії трапляються дві послідовні помилки при виконанні команд, система автоматично інжектить додатковий промпт.
Цей промпт не містить жодної магії. Він по суті говорить моделі: зупинись, перечитай усе, що було до цього, й спробуй вирішити задачу іншим способом. Тобто не продовжуй сліпо повторювати ту саму дію з іншими параметрами, а переосмисли контекст.
Результат виявився показовим. У місцях, де раніше Claude вперто брутфорсив одну й ту саму команду, змінюючи дрібниці в аргументах, після такого «перепочинку» модель раптом починала поводитися значно розумніше. Вона могла, наприклад, піти читати документацію, викликати help, подивитися список параметрів чи запропонувати альтернативний шлях.
Фактично цей промпт виконує роль кнопки «подихай». Він змушує модель вийти з локального мінімуму, в якому вона застрягла, і перезапустити ланцюжок міркувань, не обриваючи всю сесію.
Цікаво, що тригером для такого втручання обрано саме дві послідовні помилки. Це компроміс між чутливістю й стабільністю: одна невдала команда ще не означає, що модель «попливла», але дві підряд уже сигналізують про потенційне зациклення.
Для розробників, які інтегрують LLM у свої інструменти, це дає просту, але практичну рекомендацію. Варто не лише логувати помилки, а й будувати навколо них керуючу логіку: відстежувати послідовності фейлів, інжектити метапромпти, що змушують модель переосмислювати контекст, і, за потреби, перезапускати сесію.
Усе це нагадує роботу з людиною‑джуном: якщо він тричі підряд робить одне й те саме й отримує той самий exception, наставник не просто дає ще одну спробу, а зупиняє процес і змушує повернутися до постановки задачі. З LLM, принаймні в поточному поколінні, працює дуже схожа логіка.
Українські промпти: працює, але дорожче й трохи гірше для коду
Окрема лінія розмови — робота з моделями українською. Ведучі активно тестують сценарії, де промпти, пояснення й навіть постановка задач для кодування формулюються українською мовою. Загальний висновок: це працює, але з нюансами.
По‑перше, українські промпти споживають більше токенів, ніж еквівалентні англомовні. Це не інтуїтивне відчуття, а практичне спостереження: той самий зміст, сформульований українською, «важить» більше в токенах. Для безкоштовного веб‑інтерфейсу це майже не помітно, але при використанні платних API різниця прямо конвертується в гроші.
По‑друге, якість відповідей для кодових задач українською загалом трохи нижча. Не йдеться про драматичну деградацію — моделі цілком здатні розуміти українські описи, генерувати код, рефакторити, пояснювати. Але в тонких місцях, де важлива точна відповідність документації, назви команд, параметри, англійська все ще дає стабільніший результат.
Це особливо помітно в складних пайплайнах, де до кожного проєкту підключено великий масив документації англійською. Один із ведучих описує ситуацію: він формулює інструкції українською, використовуючи звичні для розробницького сленгу дієслова на кшталт «задеплой». У відповідь модель іноді ігнорує частину англомовних правил деплойменту, які мала б підтягнути з документації.
Причина, схоже, у тому, що модель гірше «зчіплює» україномовний опис дії з англомовними артефактами в контексті. Коли команда називається deploy, а в промпті фігурує «задеплой», зв’язок між ними виявляється менш очевидним для моделі, ніж для людини, яка звикла до суржику.
У простіших сценаріях — наприклад, коли в LLM просто кидають українські скарги клієнтів і просять «пофіксити» формулювання — це не створює проблем. Модель добре справляється з аналізом текстів, перефразуванням, узагальненням. Але там, де потрібно чітко зіставити україномовну інструкцію з англомовною документацією, з’являється додатковий ризик.
У підсумку вимальовується прагматичний компроміс. Для загальної комунікації, пояснень, роботи з текстами українська цілком придатна, попри трохи вищу вартість у токенах. Для критичних кодових сценаріїв, де важлива точність і повне покриття правил, англійська все ще залишається безпечнішим вибором.
Токени, ліміти й економіка: чому хмара може подорожчати, навіть якщо прайс не зміниться
За розмовами про якість відповідей і зручність промптів проглядається ще один важливий мотив — економіка використання LLM. Ведучі прямо говорять, що очікують: великі провайдери моделей з часом уріжуть ліміти підписок і фактично підвищать ціну за реальне використання.
Механізм тут простий. Навіть якщо номінальна ціна за мільйон токенів залишиться тією самою, провайдер може зменшити обсяг, доступний у рамках фіксованої підписки, або посилити обмеження на швидкість, кількість одночасних сесій, довжину контексту. Для активних користувачів це означатиме або необхідність переходити на дорожчі тарифи, або жорсткішу оптимізацію промптів і сценаріїв.
На цьому тлі різниця між українськими й англійськими промптами вже не виглядає дрібницею. Якщо україномовні інструкції стабільно споживають більше токенів, то при жорстких лімітах це може стати відчутним фактором. Особливо для команд, які масово проганяють через LLM логі, дзвінки, великі документи.
Додайте до цього ще й ефект деградації сесій. Якщо модель після кількох фейлів починає «тупіти» й генерує зайві, неефективні кроки, це не лише дратує, а й спалює токени. Кожна невдала спроба — це додатковий контекст, додаткові відповіді, додаткові гроші.
Тому поява таких «захисних» промптів, як описаний вище «зупинись, перечитай контекст і спробуй по‑іншому», має не лише якісний, а й економічний сенс. Якщо вдається раніше зупинити зациклення й змусити модель змінити стратегію, це прямо скорочує витрати.
Усе це підводить до ширшого питання: наскільки стійкою є модель бізнесу, де ключовий інструмент розробника — це платний API з непрозорими лімітами, які можуть змінитися в будь-який момент?
Локальний inference як економічна альтернатива
На тлі цих побоювань дедалі логічніше звучить ідея поступового переходу до локального inference — запуску моделей на власному обладнанні замість масового використання хмарних API.
Ведучі прямо пов’язують це з двома трендами. З одного боку, залізо дешевшає відносно можливостей, які воно дає. Потужні GPU стають доступними не лише датацентрам, а й ентузіастам, які готові інвестувати в домашні робочі станції. З іншого боку, з’являються дедалі ефективніші моделі, які дають прийнятну якість при значно менших ресурсах, ніж флагманські гіганти.
У такій конфігурації картина змінюється. Якщо раніше запускати LLM вдома означало миритися з дуже обмеженою якістю й швидкістю, то тепер локальні моделі вже можуть закривати значну частину повсякденних задач: від автодоповнення коду до аналізу логів і документації.
Економічна логіка тут проста. Хмарний API — це постійні операційні витрати, які ростуть разом із використанням. Локальний inference — це вища початкова інвестиція в залізо, але далі змінні витрати мінімальні: електрика й час на налаштування. Якщо команда активно використовує LLM щодня, точка беззбитковості може настати досить швидко.
Звісно, локальний підхід не скасовує потреби в хмарних моделях зовсім. Для найскладніших задач, де потрібна максимальна якість, довгі контексти чи спеціальні можливості, на кшталт мультимодальності, хмара ще довго залишатиметься незамінною. Але для рутинних сценаріїв, які сьогодні бездумно віддаються в API, локальний inference виглядає дедалі привабливішим.
Особливо якщо врахувати ризик урізання лімітів і непрозорих змін умов з боку провайдерів. Власна інфраструктура дає більшу передбачуваність: витрати залежать від вас, а не від чужої цінової політики.
Між зручністю й контролем: як змінюється щоденна робота з LLM
У підсумку з розмови вимальовується картина, де робота з LLM перестає бути магією й усе більше нагадує інженерію. Моделі поводяться не як всесильні «штучні інтелекти», а як складні, але досить примхливі інструменти, з якими потрібно вміти працювати.
Деградація якості в межах однієї сесії змушує будувати навколо моделей контрольні механізми: відстежувати послідовні помилки, інжектити метапромпти, перезапускати інстанси. Українські промпти відкривають двері до комфортнішої роботи рідною мовою, але водночас піднімають питання вартості токенів і точності зіставлення з англомовною документацією.
Очікування урізання лімітів підписок підштовхує до переосмислення залежності від хмарних API. На тлі здешевлення заліза й появи ефективних моделей локальний inference із маргінальної забавки ентузіастів поступово перетворюється на економічно обґрунтовану стратегію.
Усе це вимагає від розробників нових навичок. Уже недостатньо просто «кидати промпти» в чат. Потрібно розуміти, як модель поводиться в довгих сесіях, як вона токенізує різні мови, як реагує на помилки, як її можна «витягнути» з деградованого стану. Потрібно вміти рахувати токени й гроші, порівнювати вартість хмари й локального заліза, будувати гібридні пайплайни.
LLM перестають бути чорними скриньками й стають частиною інженерної інфраструктури. А це означає, що досвід, яким діляться практики — від спостережень про «тупіння» Opus після серії фейлів до простого, але дієвого промпта «зупинись і перечитай контекст» — стає не менш важливим, ніж чергові наукові статті про нові архітектури.
Джерело
Бенчмарки — ФЕЙК, Claude ТУПІЄ, а ФБР читає ваш Signal та інші важливі новини! mvc #24


