Штучний інтелект змінює світ і паралельно вигадує нову мову, щоб описати, як саме він це робить. Достатньо п’яти хвилин читання про ШІ — і ви вже натрапляєте на LLM, RAG, RLHF та з десяток інших термінів, які можуть змусити почуватися невпевнено навіть дуже обізнаних у технологіях людей. Цей глосарій — спроба це виправити. Ми регулярно оновлюємо його разом із розвитком галузі, тож вважайте його «живим» документом — подібно до систем ШІ, які він описує.

AGI
AGI, або штучний загальний інтелект, — доволі розпливчастий термін. Зазвичай ним позначають ШІ, що є більш здатним за пересічну людину в багатьох, якщо не в більшості, завдань. Генеральний директор OpenAI Сем Альтман якось описав AGI як «еквівалент середньої людини, яку ви могли б найняти собі в колеги». У хартії OpenAI AGI визначається як «високоавтономні системи, що перевершують людей у більшості економічно цінної роботи». У Google DeepMind бачать AGI трохи інакше: як «ШІ, що принаймні не поступається людям у більшості когнітивних завдань». Плутанина? Не хвилюйтеся — навіть провідні дослідники ШІ сперечаються щодо точного визначення.
AI-агент
AI-агент — це інструмент, який використовує технології ШІ, щоб виконувати на вашу користь послідовність дій, виходячи за межі можливостей базового чат-бота. Наприклад, такий агент може заповнювати звіти про витрати, бронювати квитки чи столик у ресторані, а також писати й підтримувати код.
У цьому напрямку зараз багато рухомих частин, тому «AI-агент» для різних людей може означати різне. Інфраструктура, яка має забезпечити всі задумані можливості, ще добудовується. Але базова ідея — це автономна система, що може залучати кілька моделей ШІ, щоб виконувати багатокрокові завдання.
API-ендпоїнти
Уявіть API-ендпоїнти як «кнопки» на зворотному боці програмного забезпечення, які інші програми можуть «натискати», щоб змусити його щось зробити. Розробники використовують ці інтерфейси для побудови інтеграцій — наприклад, щоб один застосунок міг отримувати дані з іншого або щоб AI-агент міг напряму керувати сторонніми сервісами без ручної роботи користувача в кожному з них.
Більшість розумних домашніх пристроїв і підключених платформ мають такі приховані кнопки, навіть якщо пересічні користувачі ніколи їх не бачать і не взаємодіють з ними. У міру того, як агенти стають потужнішими, вони дедалі частіше можуть самостійно знаходити й використовувати ці ендпоїнти, відкриваючи нові — часом несподівані — можливості для автоматизації.
Chain of thought (ланцюг міркувань)
На просте запитання людський мозок може відповісти майже без роздумів — наприклад, «яка тварина вища, жираф чи кіт?». Але в багатьох випадках вам потрібні ручка й папір, щоб дійти правильної відповіді через послідовність проміжних кроків. Наприклад, якщо у фермера є кури й корови, разом вони мають 40 голів і 120 ніг, то, щоб знайти розв’язок (20 курей і 20 корів), ви, швидше за все, запишете просте рівняння.
У контексті ШІ chain-of-thought (ланцюг міркувань) для великих мовних моделей означає розбиття задачі на менші, проміжні кроки, щоб покращити якість підсумкового результату. Відповідь зазвичай з’являється повільніше, зате частіше буває правильною, особливо в задачах на логіку чи програмування. Моделі для міркувань створюють на основі традиційних LLM і оптимізують для такого покрокового мислення за допомогою методів підкріплювального навчання.
(Див.: Великі мовні моделі)
Кодингові агенти
Це більш конкретний різновид поняття «AI-агент» — програма, яка може самостійно виконувати дії крок за кроком, щоб досягти мети. Кодинговий агент — спеціалізований варіант, орієнтований на розробку ПЗ.
Замість того щоб просто пропонувати фрагменти коду для перевірки людиною, такий агент може автономно писати, тестувати й налагоджувати код, беручи на себе рутинну ітеративну роботу, яка зазвичай забирає найбільше часу в розробників. Такі агенти можуть працювати з цілими кодовими базами, знаходити помилки, запускати тести й надсилати виправлення з мінімальним людським контролем. Це можна порівняти з дуже швидким стажером, який не спить і не втрачає концентрацію, хоча, як і зі стажером, людський перегляд результатів усе одно потрібен.
Обчислювальні ресурси (compute)
Попри багатозначність терміна, під compute зазвичай мають на увазі критично важливу обчислювальну потужність, яка дозволяє моделям ШІ працювати. Саме цей тип обробки даних живить індустрію ШІ, даючи змогу тренувати й розгортати потужні моделі.
Часто compute використовують як скорочення для позначення апаратного забезпечення, що забезпечує цю потужність, — таких як GPU, CPU, TPU та інша інфраструктура, яка є фундаментом сучасної індустрії ШІ.
Глибинне навчання (deep learning)
Глибинне навчання — це підмножина машинного навчання, здатна до самовдосконалення, в якій алгоритми ШІ побудовані у вигляді багатошарових штучних нейронних мереж. Така структура дозволяє їм виявляти складніші кореляції порівняно з простішими ML-системами, наприклад, лінійними моделями чи деревами рішень. В основі — натхнення тим, як нейрони в людському мозку утворюють щільно пов’язану мережу.
Моделі глибинного навчання можуть самостійно визначати важливі характеристики в даних, без необхідності, щоб інженери заздалегідь вручну описували ці ознаки. Структура також підтримує алгоритми, здатні вчитися на помилках і через багаторазове повторення та корекції покращувати власні результати.
Водночас глибинне навчання потребує величезних масивів даних (мільйони прикладів і більше) для досягнення гарної якості. Такі моделі зазвичай довше тренуються, ніж простіші алгоритми ML, тому їх розробка коштує дорожче.
(Див.: Нейронна мережа)
Дифузія (diffusion)
Дифузія — це технологія в основі багатьох моделей ШІ, що генерують зображення, музику та текст. Натхненні фізикою, дифузійні системи поступово «руйнують» структуру даних — наприклад, фото чи музичних треків — додаючи шум доти, доки від початкового сигналу майже нічого не залишається.
У фізиці дифузія є спонтанною й незворотною — розчинений у каві цукор не повернеш назад у кубик. Але в ШІ дифузійні моделі вчаться зворотному процесу — «реверсивній дифузії», що дозволяє відновлювати дані з шуму. Завдяки цьому вони отримують здатність відокремлювати структуру від хаосу й генерувати новий контент, який виглядає правдоподібно.
Дистиляція (distillation)
Дистиляція — це техніка, що дозволяє «витягнути» знання з великої моделі ШІ у форматі схеми «вчитель–учень». Розробники надсилають запити до моделі-вчителя й записують її відповіді. Іноді ці відповіді порівнюють із еталонним датасетом, щоб оцінити їхню точність. Потім ці результати використовують для навчання моделі-учня, яку натреновують відтворювати поведінку вчителя.
Дистиляція дає змогу створити меншу й ефективнішу модель на основі більшої, з мінімальною втратою якості. Імовірно, саме так OpenAI створила GPT-4 Turbo — швидшу версію GPT-4.
Усі великі компанії ШІ використовують дистиляцію всередині своїх систем, але, вочевидь, деякі гравці могли застосовувати її й для того, щоб наздогнати лідерів ринку, дистилюючи моделі конкурентів. Така практика зазвичай порушує умови використання API й чат-асистентів.
Файнтюнінг (fine-tuning)
Файнтюнінг — це додаткове навчання моделі ШІ, яке оптимізує її роботу для більш вузької задачі або предметної області порівняно з тим, на що модель тренували спочатку. Зазвичай це роблять, підгодовуючи модель новими, спеціалізованими (орієнтованими на конкретне завдання) даними.
Багато стартапів у сфері ШІ беруть за основу великі мовні моделі й намагаються побудувати на них комерційні продукти, підвищуючи корисність для конкретної галузі чи групи задач. Для цього вони доповнюють початкові цикли навчання власними даними з доменної області й експертизою.
(Див.: Великі мовні моделі)
GAN
GAN (Generative Adversarial Network, генеративно-змагальна мережа) — це тип фреймворку машинного навчання, який лежить в основі деяких важливих досягнень генеративного ШІ, зокрема (але не лише) інструментів для створення дипфейків.
GAN складається з пари нейронних мереж, одна з яких, генератор, створює вихідні дані на основі тренувального набору, а інша, дискримінатор, оцінює ці результати.
Мережі запрограмовані «змагатися» одна з одною. Генератор намагається видати такий результат, щоб дискримінатор не зміг відрізнити його від справжніх даних, тоді як дискримінатор навпаки намагається виявити штучно згенерований контент. Така структурована «битва» допомагає оптимізувати вихід моделі, роблячи його дедалі реалістичнішим без необхідності в постійному ручному налаштуванні.
GAN найкраще працюють у вузьких завданнях (наприклад, створення правдоподібних фотографій чи відео), а не як універсальні системи ШІ.
Галюцинація (hallucination)
«Галюцинація» — це термін, яким індустрія ШІ описує випадки, коли моделі просто вигадують інформацію, тобто генерують неправдиві дані. Очевидно, це серйозна проблема для якості ШІ.
Галюцинації призводять до відповідей генеративних моделей, які можуть вводити в оману й навіть створювати реальні ризики — з потенційно небезпечними наслідками (наприклад, коли на запит про здоров’я користувач отримує шкідливі медичні поради).
Вважається, що проблема вигадування пов’язана з прогалинами в тренувальних даних. Через це індустрія рухається до більш спеціалізованих або вертикальних моделей — доменно-орієнтованих ШІ з вужчою експертизою. Це має зменшити ймовірність прогалин у знаннях і, відповідно, ризики дезінформації.
Інференс (inference)
Інференс — це процес запуску моделі ШІ в роботу. Іншими словами, коли модель використовують, щоб робити передбачення або висновки на основі раніше вивчених даних. Інференс неможливий без навчання: спочатку модель має вивчити шаблони в датасеті, перш ніж зможе узагальнювати та робити висновки.
Інференс можуть виконувати різні типи «заліза» — від процесорів у смартфонах до потужних GPU та спеціалізованих AI-акселераторів. Але не всі з них однаково добре справляються з цим завданням: дуже великі моделі на звичайному ноутбуці можуть працювати надзвичайно повільно, тоді як у хмарі з високопродуктивними чипами вони дають відповіді значно швидше.
(Див.: Навчання)
Великі мовні моделі (LLM)
Великі мовні моделі, або LLM, — це тип моделей ШІ, які використовують популярні асистенти на кшталт ChatGPT, Claude, Google Gemini, Meta Llama, Microsoft Copilot чи Le Chat від Mistral. Коли ви спілкуєтесь із таким асистентом, ви фактично взаємодієте з великою мовною моделлю, яка обробляє ваш запит безпосередньо або з допомогою додаткових інструментів, як-то веб-пошук чи код-інтерпретатор.
LLM — це глибокі нейронні мережі з мільярдами числових параметрів (ваг), які навчаються виявляти зв’язки між словами й фразами та будують уявлення про мову — своєрідну багатовимірну «карту» слів.
Такі моделі створюються шляхом кодування закономірностей, знайдених у мільярдах книжок, статей і транскриптів. Коли ви даєте LLM запит (промпт), модель генерує найбільш імовірну послідовність слів, що відповідає цьому запиту.
(Див.: Нейронна мережа)
Кеш пам’яті (memory cache)
Кеш пам’яті — це важливий механізм, який пришвидшує інференс (процес, під час якого ШІ генерує відповідь на запит користувача). По суті, кешування — це техніка оптимізації, що робить інференс ефективнішим.
Оскільки робота ШІ базується на інтенсивних математичних обчисленнях, кожен новий розрахунок споживає ресурси й енергію. Кешування зменшує кількість необхідних обчислень, зберігаючи їх результати для повторного використання в майбутніх запитах і операціях.
Існують різні види кешування, один із найвідоміших — KV-кеш (key-value). KV-кеш працює в трансформерних моделях і підвищує їхню ефективність, скорочуючи час і «алгоритмічні зусилля», потрібні для генерації відповіді.
(Див.: Інференс)
Нейронна мережа
Нейронна мережа — це багатошарова алгоритмічна структура, яка лежить в основі глибинного навчання й ширше — усього буму генеративних інструментів ШІ після появи великих мовних моделей.
Ідея надихатися щільно пов’язаними нейронами людського мозку як шаблоном для обробки даних виникла ще у 1940-х роках. Але лише відносно нещодавній розвиток графічних процесорів (GPU), серед іншого завдяки індустрії відеоігор, зробив можливим практичне використання великих нейронних мереж для реальних задач. Сьогодні саме нейронні мережі є основою більшості сучасних моделей ШІ — від розпізнавання зображень до генеративних чат-ботів.


