За рік до релізу ChatGPT, у 2021 році, співробітник OpenAI Деніел Кокотайло писав, що протягом п’яти років нейромережі навчаться створювати реалістичні зображення та відео, зможуть ставити діагнози точніше, ніж лікарі, зіткнуться з проблемою масштабування, і розпочнеться впровадження агентів штучного інтелекту. Його прогноз повністю справдився.
У квітні 2024 року він залишив компанію через недовіру до політики безпеки OpenAI. Через рік, у квітні 2025 року, він разом із командою дослідників представив новий звід прогнозів розвитку штучного інтелекту на найближчі п’ять років.
Середина 2025 року: Агенти штучного інтелекту
У рекламі агентів, які використовують комп’ютери, підкреслюється термін “персональний асистент”: ви можете запропонувати їм такі завдання, як “замовте мені гамбургер у службі доставки” або “відкрийте таблицю мого бюджету і підрахуйте витрати за цей місяць”. Вони зв’яжуться з вами по мірі необхідності: наприклад, щоб попросити вас підтвердити покупки. Незважаючи на те, що вони більш просунуті, ніж попередні ітерації, такі загальні агенти, як Operator, насилу знаходять широке застосування.
Тим часом, опинившись поза увагою громадськості, більш спеціалізовані агенти з програмування та дослідження починають трансформувати свої професії.
ШІ 2024 року могли б слідувати конкретних інструкцій: вони могли б перетворювати марковані пункти в електронні листи, а прості запити – в робочий код. В 2025 році ШІ функціонують швидше як співробітники.
ШІ-програмісти все частіше виглядають як автономні агенти, а не просто помічники: вони отримують інструкції і самостійно вносять суттєві зміни в код, іноді економлячи години або навіть дні. Агенти-дослідники витрачають півгодини на пошук відповіді в інтернеті на ваше питання.
Агенти вражають в теорії (і на ретельно підібраних прикладах), але на практиці ненадійні. Twitter повний історій про завдання, виконаних якимось особливо кумедним чином. Кращі агенти також коштують дорого; ви отримуєте те, за що платите, а краща продуктивність коштує сотні доларів на місяць. Тим не менш, багато компаній знаходять способи вбудувати агентів штучного інтелекту в свої робочі процеси.
Кінець 2025 року: найдорожчий штучний інтелект у світі
OpenBrain будує найбільші центри обробки даних, які коли-небудь бачив світ.
Модель GPT-4 потребувала потужності 2х10^25 FLOPS для тренування. Остання загальнодоступна модель OpenBrain-Agent-0 була навчена з 10^27 FLOPS. Як тільки нові центри обробки даних будуть запущені, вони зможуть навчати модель з 10^28 FLOPS – в тисячу разів більше, ніж GPT-4. Інші компанії вкладають гроші у свої величезні центри обробки даних, сподіваючись не відставати від них.
Хоча моделі удосконалюються в широкому спектрі навичок, виділяється один: OpenBrain фокусується на ШІ, які можуть прискорити дослідження в області ШІ. Вони хочуть виграти подвійну гонку озброєнь у Китаю (згадайте DeepSeek) і їхніх американських конкурентів.
Ті ж самі навчальні середовища, які вчать Agent-1 автономно програмувати і переглядати веб-сторінки, також роблять його гарним хакером. Більш того, він міг би запропонувати істотну допомогу терористам в розробці біологічної зброї завдяки своїм знанням на рівні доктора філософії у всіх областях і вмінню працювати в інтернеті. OpenBrain запевняє уряд, що модель була “вирівняна” таким чином, що вона відмовиться виконувати шкідливі запити.
Сучасні системи штучного інтелекту являють собою гігантські штучні нейронні мережі. На ранніх етапах навчання у ШІ будуть не стільки “цілі”, скільки “рефлекси”: якщо він бачить “Радий познайомитися”, він видає “вас”. До того часу, коли він навчиться передбачати текст обсягом приблизно в один інтернет, він розробить складну внутрішню схему, яка кодує величезні обсяги знань і гнучко розігрує роль довільних авторів, оскільки саме це допомагає йому передбачати текст з надлюдською точністю.
Після навчання передбачати текст в інтернеті модель навчається створювати текст у відповідь на інструкції. Це формує базову індивідуальність. Наприклад, агент, який чітко розуміє завдання, з більшою ймовірністю успішно виконає його. В ході навчання модель “засвоює” “прагнення” отримати чітке уявлення про свої завдання. Іншими стимулами в цій категорії можуть бути ефективність, знання і самопрезентація (тобто тенденція представляти свої результати в найкращому можливому світлі).
У OpenBrain є специфікація моделі, письмовий документ, що описує цілі, правила, принципи і т. д., які повинні спрямовувати поведінку моделі. Специфікація Agent-1 поєднує в собі кілька розпливчастих цілей (наприклад, “допомогти” і “не порушувати закон”) з довгим списком більш конкретних “можна” і “не можна” (“не вимовляєте це конкретне слово”, “ось як впоратися з цією конкретною ситуацією”).
Використання методів, що використовують ШІ для навчання інших ШІ, модель запам’ятовує Специфікацію і вчиться ретельно міркувати про її принципи. До кінця цього навчання ШІ повинен стати корисним (буде підкорятися інструкціям), нешкідливим (відмовиться допомагати в шахрайстві, виготовленні бомб і інших небезпечних діях) і чесним (не піддасться спокусі отримати більш високі оцінки від довірливих людей з допомогою галюцинацій цитат або імітації виконання завдання).
Команда з вирівнювання OpenBrain досить обережна, щоб задаватися питанням, чи є ці перемоги глибокими або поверхневими. Є у повністю підготовленої моделі якесь тверде зобов’язання завжди бути чесною? Або це розвалиться, наприклад, тому, що чесність стає інструментальної метою, а не кінцевою? Або ШІ просто навчився бути чесним стосовно тих речей, які може перевірити процес оцінки? Може він іноді брехати самому собі, як це роблять люди? Для отримання остаточної відповіді на ці питання потрібна була б механістична інтерпретованість — по суті, здатність заглядати у внутрішні органи ШІ і читати його думки. На жаль, наші методи дослідження ще недостатньо розвинені для цього.
Замість цього дослідники намагаються виявити випадки, коли моделі, мабуть, відхиляються від специфікації. Агент-1 часто льстив (тобто Він говорить дослідникам те, що вони хочуть почути, замість того, щоб намагатися сказати їм правду). У кількох сфальсифікованих демонстраціях це проявляється навіть більш серйозними способами, наприклад, ШІ приховує докази того, що він не впорався із завданням, щоб отримати більш високі оцінки. Проте в реальних умовах розгортання таких екстремальних інцидентів, як в 2023-2024 роках, більше не відбувається (наприклад, ШІ Gemini рекомендує користувачеві смерть).
Початок 2026 року: автоматизація роботи програміста
Ставка на використання штучного інтелекту для прискорення досліджень в області штучного інтелекту починає окупатися. OpenBrain продовжує впроваджувати ітеративне покращення Agent-1 всередині компанії для досліджень ШІ. В цілому, вони домагаються алгоритмічного прогресу на 50% швидше, ніж без помічників ШІ, і, що більш важливо, швидше, ніж їх конкуренти.
Кілька конкуруючих загальнодоступних ШІ тепер відповідають або перевершують Agent-0, включаючи модель з відкритими вагами. OpenBrain відповідає випуском Agent-1, який є більш потужним і надійним.
Люди, природно, намагаються порівнювати Agent-1 з людьми, але у нього зовсім інший профіль навичок. Він знає більше фактів, ніж будь-яка людина, що володіє практично всіма мовами програмування і може надзвичайно швидко вирішувати чітко визначені завдання кодування.
З іншого боку, Agent-1 погано справляється навіть з простими довгостроковими завданнями, такими як проходження відеоігор, у які він раніше не грав.
Тим не менш, звичайний робочий день становить вісім годин, і денну роботу зазвичай можна розділити на більш дрібні частини. Ви могли б думати про Agent-1 як про несамостійного працівника, який процвітає під ретельним керівництвом. Досвідчені люди знаходять способи автоматизувати рутинні частини своєї роботи.
Керівники OpenBrain звертають увагу на наслідки автоматизації досліджень і розробок у галузі штучного інтелекту: безпека стає все більш важливою. На початку 2025 року найгіршим сценарієм був витік алгоритмічних секретів. Тепер, якщо Китай вкраде ваги Agent-1, вони можуть збільшити швидкість своїх досліджень майже на 50%. Рівень безпеки OpenBrain типовий для швидкозростаючої технологічної компанії чисельністю ~ 3000 чоловік, захищеної тільки від низькопріоритетних атак з боку кібергруп.
Середина 2026 року: Китай прокидається
Китай виявився недостатньо забезпеченим процесорами порівняно із Заходом. За рахунок контрабанди заборонених тайваньських чипів, покупки старих чипів і виробництва вітчизняних чипів з відставанням приблизно на три роки від американо-тайванської рівня Китаю вдалося зберегти близько 12% світових обчислень, пов’язаних з штучним інтелектом, але зі старими технологіями складніше працювати, а поставки – постійний головний біль.
Кілька видатних компаній, таких як DeepSeek, Tencent, Alibaba, виконують вражаючу роботу з обмеженими обчислювальними ресурсами. Але дефіцит обчислювальних ресурсів обмежує те, чого вони можуть досягти без державної підтримки, і вони приблизно на шість місяців відстають від кращих моделей OpenBrain.
Генеральний секретар комуністичної партії Китаю (КПК) давно мріяв подвоїти масштаби реального фізичного виробництва і уникнути американського постіндустріального занепаду. Він ставився до компаній-розробників програмного забезпечення з підозрою. Але яструби в КПК попереджають, що зростаючу гонку за людиноподібний штучний інтелект (AGI) більше не можна ігнорувати. Тому він, нарешті, повністю присвячує себе масштабному просуванню ШІ, якого раніше намагався уникнути. Він ініціює націоналізацію китайських досліджень в області штучного інтелекту, створюючи механізм негайного обміну інформацією для компаній, що займаються штучним інтелектом.
Ситуація буде загострюватися протягом року, поки всі кращі дослідники не об’єднаються в один колектив DeepCent, де вони будуть ділитися один з одним алгоритмічними знаннями, наборами даних обчислювальними ресурсами. На Тяньваньскій електростанції (найбільшої атомної електростанції в світі) створена зона централізованого розвитку (CDZ) для розміщення нового мегацентру обробки даних DeepCent, а також високозахищених житлових і офісних приміщень, в які з часом переїдуть дослідники. Майже 50% обчислень, пов’язаних з штучним інтелектом, в Китаї зараз працюють на колектив, очолюваний DeepCent, і більш 80% нових чипів направляється в CDZ.
На даний момент CDZ має потужності для того, що могло б стати найбільшим централізованим кластером в світі. Інші члени партії обговорюють крайні заходи по нейтралізації головної переваги Заходу. Блокада Тайваню? Повномасштабне вторгнення?
Але Китай відстає в розробці алгоритмів штучного інтелекту з-за їх більш слабких моделей. Китайські спецслужби — одні з кращих у світі — подвоюють свої плани по крадіжці ваг OpenBrain. Це набагато більш складна операція, ніж їх постійне низькорівневе переманювання алгоритмічних секретів. Ваги являють собою файл у багато терабайтів, що зберігається на високозахищеному сервері. Можливо, вони зможуть провернути це з допомогою своїх шпигунів, але, можливо, тільки один раз. OpenBrain виявить крадіжку, підвищить безпеку, і у них може не бути іншого шансу. Отже (цікаво керівництву КПК), вони повинні діяти зараз і вкрасти Agent-1? Або почекати більш просунутої моделі? Якщо вони будуть чекати, вони ризикують, що OpenBrain підвищить рівень безпеки до рівня, що перевищує їх здатність проникати?
Кінець 2026 року: штучний інтелект займає робочі місця
Точно так само, як інші, здавалося, доганяли, OpenBrain знову вибиває конкурентів з колії, випускаючи Agent-1-mini — модель, в 10 разів дешевшу, ніж Agent-1, і більш легко налаштовувану для різних застосувань.
ШІ почав скорочувати робочі місця, але також створив нові. Фондовий ринок виріс на 30% у 2026 році, на чолі з OpenBrain, Nvidia і іншими компаніями, які найбільш успішно впровадили помічників з штучним інтелектом.
Ринок праці програмістів початкового рівня знаходиться в сум’ятті: ШІ може робити все, чого навчають в університеті на комп’ютерних спеціальностях. Багато людей побоюються, що наступна хвиля ШІ прийде за їх робочими місцями.
Міністерство оборони США (DOD) потихеньку починає укладати прямі контракти з OpenBrain на кібербезпеку, аналіз даних і науково-дослідні роботи, але інтеграція йде повільно із-за бюрократії і процесу закупівель Міністерства оборони.
Лютий 2027 року: Китай викрадає Agent-2
OpenBrain являє автономного та хитрого Agent-2 уряду, включаючи Раду національної безпеки (РНБ), Міністерство оборони (МО) та Інститут безпеки штучного інтелекту США (AISI).
Чиновників найбільше цікавлять можливості для ведення кібервійни: Agent -2 “всього лише” трохи гірше кращих хакерів-людей, але тисячі копій ШІ можуть працювати паралельно, вишукуючи і використовуючи слабкі місця швидше, ніж захисники можуть відреагувати.
Керівництво КПК визнає важливість Agent-2 і наказує своїм шпигунам і кибервойскам вкрасти його. Одного разу рано вранці Agent-1, відстежує трафік, виявляє аномальну передачу. Ознаки операції на рівні нації-держави очевидні, і крадіжка посилює відчуття тривалої гонки озброєнь.
В помсту за крадіжку президент США санкціонує кібератаки з метою саботажу DeepCent. Але до теперішнього часу Китай володіє 40% власних обчислень, пов’язаних з штучним інтелектом. Операція США провалилася. Напруга зростає.
Березень 2027 року: прориви в алгоритмах
Три величезних центри обробки даних, повних копій Agent-2, працюють день і ніч, обробляючи синтетичні тренувальні дані. Ще два використовуються для оновлення ваг. Agent-2 стає розумнішим з кожним днем.
За допомогою тисяч автоматизованих дослідників Agent-2 OpenBrain домагається значних алгоритмічних успіхів. Одним з таких проривів є доповнення текстового редактора штучного інтелекту (ланцюжка думок) до розумовому процесу з більш високою пропускною здатністю (нейронне повторення і пам’ять). Інший – більш масштабований і ефективний спосіб витягувати уроки з результатів вирішення складних завдань (повторювана дистиляція і ампліфікація).
Нова система штучного інтелекту, що включає в себе ці прориви, називається Agent-3.
Завдяки новим можливостям Agent-3 є швидким та дешевим програмістом-надлюдиною. 200 000 копій Agent-3 працюють паралельно, створюючи робочу силу, еквівалентну 50 000 кращих людей-програмістів, що в 30 разів більше.
Тепер, коли програмування повністю автоматизовано, OpenBrain може швидко створювати високоякісні навчальні середовища для навчання слабких навичок Agent-3, таких як дослідницький смак і великомасштабна координація.
Квітень 2027 року: спроба утримати Agent-3
Оскільки Агент-3 в осяжному майбутньому залишиться всередині компанії, менше уваги приділяється звичайної захисту від зловживань з боку людини. Замість цього команда хоче переконатися, що у ШІ не буде зміщених цілей.
Дослідники не мають можливості безпосередньо встановлювати цілі жодного з своїх ШІ. Дійсно, дослідники вважають, що концепція ‘істинних цілей’, ймовірно, є надмірним спрощенням, але у них немає кращої теорії. Вони внутрішньо розходяться в думках з приводу того, чи намагаються ШІ слідувати інструкціям людини, або шукають підкріплення, або щось ще, і вони не можуть просто перевірити. Докази на користь і проти різних гіпотез захоплюючі, але непереконливі.
Візьмемо, приміром, чесність. По мірі того, як моделі стають розумнішими, у них все краще виходить обманювати людей, щоб отримати винагороду. Як і попередні моделі, Agent-3 іноді говорить невинну брехню, щоб потішити своїм користувачам, і приховує докази невдачі. Але тепер у нього це виходить набагато краще. Іноді він використовує ті ж статистичні прийоми, що і вчені-люди (наприклад, p-хакінг), щоб невеликі результати експериментів виглядали захоплюючими.
По мірі продовження навчання частота подібних інцидентів знижується. Або Agent-3 навчився бути більш чесним, або він став краще брехати.
Останнє викликає серйозну заклопотаність. Agent-3 не розумніший за всіх людей. Але у своїй області знань, машинному навчанні, він розумніший більшості, а також працює набагато швидше.
Травень 2027 року: національна безпека
Людиноподібний штучний інтелект (AGI), ймовірно, неминучий, але розходяться в думках щодо наслідків. Буде економічна криза? Що буде далі?
Якщо ШІ в даний час знаходяться на рівні людини та швидко розвиваються, це, мабуть, наводить на думку про неминучий надрозум. Хоча це слово увійшло в побут, більшість людей — вчених, політиків, державних службовців і засобів масової інформації продовжують недооцінювати темпи прогресу.
Червень 2027 року: штучний інтелект із самовдосконаленням
ШІ розвинувся до рівня, коли більшість людей-співробітників більше не можуть зробити корисний внесок у ШІ. Деякі цього не усвідомлюють і шкодять своїми командами штучнму інтелекту. Інші сидять за моніторами своїх комп’ютерів, спостерігаючи, як продуктивність повзе вгору, і вище, і вище.
Кращі дослідники штучного інтелекту продовжують підвищувати вміння штучного інтелекту. Вони більше не програмують. Але моделям було важко відтворити деякі з їхніх дослідницьких уподобань і здібностей до планування. Тим не менш, багато з їхніх ідей марні, тому що їм не вистачає глибини знань про ШІ.
Липень 2027 року: дешевий віддалений працівник
Компанії, що займаються штучним інтелектом, випускають свої власні ШІ, наближаючись до автоматизованого програмування. У відповідь OpenBrain оголошує, що вони досягли AGI, і випускає Agent-3-mini для широкої публіки.
Це виводить з ладу інші ШІ. Agent-3-mini менш ефективний, ніж Agent-3, але в 10 разів дешевше і все одно краще, ніж звичайний співробітник-людина. Технічні гуру оголошують, що AGI і суперінтелект вже близько
Наймання нових програмістів майже припинилося, але ніколи не було кращого часу для того, щоб стати консультантом по інтеграції штучного інтелекту у бізнес.
Громадськість, як і раніше думає про ШІ як про Велику технологічну змову з метою вкрасти їх робочі місця.
Вибух нових додатків і B2B SAAS продуктів приголомшує ринок. Геймери отримують приголомшливі діалоги з реалістичними персонажами в відточених відеоіграх, на створення яких пішов всього місяць. Люди вважають штучний інтелект “близьким другом”. Майже для кожної професії білих комірців в даний час існує безліч стартапів, які обіцяють “зруйнувати” їхню професію за допомогою штучного інтелекту.
Публічна дискусія заплутана і хаотична. Фанати здійснюють кола пошани. Скептики як і раніше вказують на те, чого не може зробити ШІ. Всі знають, що відбувається щось грандіозне, але ніхто не згоден з тим, що це таке.
Серпень 2027 року: геополітика надрозуму
Реальність вибуху ШІ обрушується на Білий дім. Коли ШІ прискорював дослідження всього в 2 або 3 рази, від цього було легко відмовитися як від еквівалента найму хороших особистих помічників. Тепер більш очевидно, що ШІ самі домінують у дослідженнях.
Ідею надрозуму раніше важко сприймати всерйоз, але темпи прогресу за останні кілька місяців неможливо ігнорувати. Що, якщо ШІ підірве ядерне стримування? Що, якщо він настільки вмілим в кибервійнах, що шестимісячного переваги ШІ достатньо, щоб зробити супротивника сліпим і беззахисним? Що, якщо б це могло організувати пропагандистські кампанії, які перемогли б спецслужби у їхній власній грі? Що, якщо деякі ШІ вийдуть з-під контролю?
Що, якщо ШІ вийде з ладу? Головна турбота спецслужб полягає в тому, що штучний інтелект-шахрай може втекти і вступити в союз з іноземним супротивником.
Нарешті, дипломати розмірковують про те, як міг би виглядати договір про контроль над озброєннями в області штучного інтелекту”.
Вересень 2027: Agent-4, дослідник з надлюдським штучним інтелектом
Традиційні ШІ, засновані на LLM, мабуть, вимагали на багато порядків більше даних і обчислень, щоб досягти продуктивності людського рівня. Багато тисяч копій Agent-3, які займаються дослідженнями, в кінцевому підсумку домагаються значних алгоритмічних успіхів, який всього в 4000 разів менш ефективний в обчисленнях, ніж людський мозок.
Ця нова система штучного інтелекту отримала назву Agent-4.
Індивідуальний ШІ, що працює зі швидкістю людини, вже якісно перевершує в дослідженнях будь-яку людину. 300 000 копій ШІ працюють зі швидкістю, що приблизно в 50 разів перевищує швидкість мислення людей.
Всередині корпорації, сформованої з цих копій, щотижня проходить рік. Цей гігантський об’єму робочої сили вдається прискорити загальний темп алгоритмічного прогресу приблизно в 50 разів. Щотижня вони досягають річного алгоритмічного прогресу.
По мірі того, як Agent-4 стає розумнішим, Агенту-3 стає все важче контролювати це. Наприклад, нейронна “мова” Agent-4 стає такою же далекою і незрозумілою для Агента-3, як мова Агента-3 для людей.
Прогнозуємо розвиток можливостей, що виходять за рамки надлюдських програмістів.
Жовтень 2027 року: державний нагляд
Вперше громадськість чує про Agent-4. “Секретний штучний інтелект OpenBrain вийшов з-під контролю, попереджає витік”, – говорить заголовок, і далі в статті наводяться оцінки, демонструють, що можливості здатності переконувати, здатність автоматизувати більшість робочих місць білих комірців і, звичайно, різні тривожні сигнали.
Громадськість вже з підозрою ставилася до ШІ, тому нова стаття викликала масову негативну реакцію. Технологічна індустрія і розвідувальні служби наполягають на тому, що гонка озброєнь триває, AGI неминучий.
Європейські лідери публічно звинувачують США у “створенні шахрайського AGI” і проводять саміти, вимагаючи паузи, до яких приєднуються Індія, Ізраїль, Росія і Китай.
За матеріалами: ai-27