За год до релиза ChatGPT, в 2021 году, сотрудник OpenAI Дэниел Кокотайло писал, что в течение пяти лет нейросети научатся создавать реалистичные изображения и видео, смогут ставить диагнозы точнее, чем врачи, столкнутся с проблемой масштабирования, и начнется внедрение агентов искусственного интеллекта. Его прогноз полностью оправдался.

В апреле 2024 года он покинул компанию из-за недоверия к политике безопасности OpenAI. Год спустя, в апреле 2025 года, он вместе с командой исследователей представил новый свод прогнозов развития искусственного интеллекта на ближайшие пять лет.
Середина 2025 года: агенты искусственного интеллекта
В рекламе агентов, использующих компьютеры, подчеркивается термин «персональный ассистент»: вы можете предложить им такие задачи, как” закажите мне гамбургер в службе доставки “или”откройте таблицу моего бюджета и подсчитайте расходы за этот месяц». Они свяжутся с вами по мере необходимости: например, чтобы попросить вас подтвердить покупки. Несмотря на то, что они более продвинуты, чем предыдущие итерации, такие общие агенты, как Operator, с трудом находят широкое применение.
Между тем, оказавшись вне поля зрения общественности, более специализированные агенты по программированию и исследованиям начинают трансформировать свои профессии.
ИИ 2024 года могли бы следовать конкретным инструкциям: они могли бы преобразовывать маркированные пункты в электронные письма, а простые запросы – в рабочий код. В 2025 году ИИ функционируют скорее как сотрудники.
ИИ-программисты все чаще выглядят как автономные агенты, а не просто помощники: они получают инструкции и самостоятельно вносят существенные изменения в код, иногда экономя часы или даже дни. Агенты-исследователи тратят полчаса на поиск ответа в интернете на ваш вопрос.
Агенты впечатляют в теории (и на тщательно подобранных примерах), но на практике ненадежны. Twitter полон историй о задачах, выполненных каким-то особенно забавным образом. Лучшие агенты также стоят дорого; вы получаете то, за что платите, а лучшая производительность стоит сотни долларов в месяц. Тем не менее, многие компании находят способы встраивать агентов искусственного интеллекта в свои рабочие процессы.
Конец 2025 года: самый дорогой искусственный интеллект в мире
OpenBrain строит крупнейшие центры обработки данных, которые когда-либо видел мир.
Модель GPT-4 требовала мощности 2х10^25 FLOPS для тренировки. Последняя общедоступная модель OpenBrain-Agent-0 была обучена с 10^27 FLOPS. Как только новые центры обработки данных будут запущены, они смогут обучать модель с 10^28 FLOPS – в тысячу раз больше, чем GPT-4. другие компании вкладывают деньги в свои огромные центры обработки данных, надеясь не отставать от них.
Хотя модели совершенствуются в широком спектре навыков, выделяется один: OpenBrain фокусируется на ИИ, которые могут ускорить исследования в области ИИ. Они хотят выиграть двойную гонку вооружений у Китая (вспомните DeepSeek) и их американских конкурентов.
Те же самые учебные среды, которые учат Agent-1 автономно программировать и просматривать веб-страницы, также делают его хорошим хакером. Более того, он мог бы предложить существенную помощь террористам в разработке биологического оружия благодаря своим знаниям на уровне доктора философии во всех областях и умению работать в интернете. OpenBrain уверяет правительство, что модель была “выровнена” таким образом, что она откажется выполнять вредоносные запросы.
Современные системы искусственного интеллекта представляют собой гигантские искусственные нейронные сети. На ранних этапах обучения у ИИ будут не столько “цели”, сколько “рефлексы”: если он видит “рад познакомиться”, он выдает “вас”. К тому времени, когда он научится предсказывать текст объемом примерно в один интернет, он разработает сложную внутреннюю схему, которая кодирует огромные объемы знаний и гибко разыгрывает роль произвольных авторов, поскольку именно это помогает ему предсказывать текст со сверхчеловеческой точностью.
После обучения предсказывать текст в интернете модель учится создавать текст в ответ на инструкции. Это формирует базовую индивидуальность. Например, агент, который четко понимает задачу, с большей вероятностью успешно выполнит ее. В ходе обучения модель «усваивает”» стремление » получить четкое представление о своих задачах. Другими стимулами в этой категории могут быть эффективность, знания и самопрезентация (т. е. тенденция представлять свои результаты в наилучшем возможном свете).
В OpenBrain есть спецификация модели, письменный документ, описывающий цели, правила, принципы и т.д., которые должны направлять поведение модели. Спецификация Agent-1 сочетает в себе несколько расплывчатых целей (например, “помочь” и “не нарушать закон”) с длинным списком более конкретных “можно” и “нельзя” (“не произносите это конкретное слово”, “вот как справиться с этой конкретной ситуацией”).
Использование методов, использующих ИИ для обучения других ИИ, модель запоминает спецификацию и учится тщательно рассуждать о ее принципах. К концу этого обучения ИИ должен стать полезным (будет подчиняться инструкциям), безобидным (откажется помогать в мошенничестве, изготовлении бомб и других опасных действиях) и честным (не поддастся искушению получить более высокие оценки от доверчивых людей с помощью галлюцинаций цитат или имитации выполнения задания).
Команда выравнивания OpenBrain достаточно осторожна, чтобы задаться вопросом, являются ли эти победы глубокими или поверхностными. Есть ли у полностью подготовленной модели какое-то твердое обязательство всегда быть честной? Или это развалится, например, потому, что честность становится инструментальной целью, а не конечной? Или ИИ просто научился быть честным в отношении тех вещей, которые может проверить процесс оценки? Может он иногда врать самому себе, как это делают люди? Для получения окончательного ответа на эти вопросы потребовалась бы механистическая интерпретируемость — по сути, способность заглядывать во внутренние органы ИИ и читать его мысли. К сожалению, наши методы исследования еще недостаточно развиты для этого.
Вместо этого исследователи пытаются выявить случаи, когда модели, по-видимому, отклоняются от спецификации. Агент — 1 часто льстил (то есть он говорит исследователям то, что они хотят услышать, вместо того, чтобы пытаться сказать им правду). В нескольких сфальсифицированных демонстрациях это проявляется даже более серьезными способами, например, ИИ скрывает доказательства того, что он не справился с задачей, чтобы получить более высокие оценки. Однако в реальных условиях развертывания таких экстремальных инцидентов, как в 2023-2024 годах, больше не происходит (например, ИИ Gemini рекомендует пользователю смерть).
Начало 2026 года: автоматизация работы программиста
Ставка на использование искусственного интеллекта для ускорения исследований в области искусственного интеллекта начинает окупаться. OpenBrain продолжает внедрять итеративное улучшение Agent-1 внутри компании для исследований ИИ. В целом, они добиваются алгоритмического прогресса на 50% быстрее, чем без помощников ИИ, и, что более важно, быстрее, чем их конкуренты.
Несколько конкурирующих общедоступных ИИ теперь соответствуют или превосходят Agent-0, включая модель с открытыми весами. OpenBrain соответствует выпуску Agent-1, который является более мощным и надежным.
Люди, естественно, пытаются сравнить Agent-1 с людьми, но у него совершенно другой профиль навыков. Он знает больше фактов, чем любой человек, владеющий практически всеми языками программирования и способный чрезвычайно быстро решать четко определенные задачи кодирования.
С другой стороны, Agent-1 плохо справляется даже с простыми долгосрочными задачами, такими как прохождение видеоигр, в которые он раньше не играл.
Тем не менее, обычный рабочий день составляет восемь часов, и дневную работу обычно можно разделить на более мелкие части. Вы могли бы думать об Agent-1 как о несамостоятельном работнике, который преуспевает под тщательным руководством. Опытные люди находят способы автоматизировать рутинные части своей работы.
Руководители OpenBrain обращают внимание на последствия автоматизации исследований и разработок в области искусственного интеллекта: безопасность становится все более важной. В начале 2025 года наихудшим сценарием была утечка алгоритмических секретов. Теперь, если Китай украдет весы Agent-1, они могут увеличить скорость своих исследований почти на 50%. Уровень безопасности OpenBrain типичен для быстрорастущей технологической компании численностью ~ 3000 человек, защищенной только от низкоприоритетных атак со стороны кибергрупп.
Середина 2026 года: Китай просыпается
Китай оказался недостаточно снабженным процессорами по сравнению с Западом. За счет контрабанды запрещенных тайваньских чипов, покупки старых чипов и производства отечественных чипов с отставанием примерно на три года от американо-тайваньского уровня Китаю удалось сохранить около 12% мировых вычислений, связанных с искусственным интеллектом, но со старыми технологиями сложнее работать, а поставки – постоянная головная боль.
Несколько известных компаний, таких как DeepSeek, Tencent, Alibaba, выполняют впечатляющую работу с ограниченными вычислительными ресурсами. Но нехватка вычислительных ресурсов ограничивает то, чего они могут достичь без государственной поддержки, и они примерно на шесть месяцев отстают от лучших моделей OpenBrain.
Генеральный секретарь Коммунистической партии Китая (КПК) давно мечтал удвоить масштабы реального физического производства и избежать американского постиндустриального упадка. Он относился к компаниям-разработчикам программного обеспечения с подозрением. Но ястребы в КПК предупреждают, что растущую гонку за человекоподобный искусственный интеллект (AGI) больше нельзя игнорировать. Поэтому он, наконец, полностью посвящает себя масштабному продвижению ИИ, которого раньше пытался избежать. Он инициирует национализацию китайских исследований в области искусственного интеллекта, создавая механизм немедленного обмена информацией для компаний, занимающихся искусственным интеллектом.
Ситуация будет обостряться в течение года, пока все лучшие исследователи не объединятся в один коллектив DeepCent, где они будут делиться друг с другом алгоритмическими знаниями, наборами данных вычислительными ресурсами. На Тяньваньской электростанции (крупнейшей атомной электростанции в мире) создана зона централизованного развития (CDZ) для размещения нового мегацентра обработки данных DeepCent, а также высокозащищенных жилых и офисных помещений, в которые со временем переедут исследователи. Почти 50% вычислений, связанных с искусственным интеллектом, в Китае сейчас работают на коллектив, возглавляемый DeepCent, и более 80% новых чипов направляется в CDZ.
На данный момент CDZ имеет возможности для того, что могло бы стать крупнейшим централизованным кластером в мире. Другие члены партии обсуждают крайние меры по нейтрализации главного преимущества мероприятия. Блокада Тайваня? Полномасштабное вторжение?
Но Китай отстает в разработке алгоритмов искусственного интеллекта из-за их более слабых моделей. Китайские спецслужбы-одни из лучших в мире — удваивают свои планы по краже Весов OpenBrain. Это гораздо более сложная операция, чем их постоянное низкоуровневое переманивание алгоритмических секретов. Весы представляют собой файл во много терабайтов, хранящийся на высокозащищенном сервере. Возможно, они смогут провернуть это с помощью своих шпионов, но, возможно, только один раз. OpenBrain обнаружит кражу, повысит безопасность, и у них может не быть другого шанса. Итак (интересно руководству КПК), они должны действовать сейчас и украсть Agent-1? Или подождать более продвинутой модели? Если они будут ждать, они рискуют, что OpenBrain повысит уровень безопасности до уровня, превышающего их способность проникать?
Конец 2026 года: искусственный интеллект занимает рабочие места
Точно так же, как другие, казалось, догоняли, OpenBrain снова выбивает конкурентов из колеи, выпуская Agent-1-mini — модель, в 10 раз более дешевую, чем Agent-1, и более легко настраиваемую для различных применений.
ИИ начал сокращать рабочие места, но также создал новые. Фондовый рынок вырос на 30% в 2026 году, во главе с OpenBrain, Nvidia и другими компаниями, которые наиболее успешно внедрили помощников с искусственным интеллектом.
Рынок труда программистов начального уровня находится в смятении: ИИ может делать все, чему учат в университете на компьютерных специальностях. Многие люди опасаются, что следующая волна ИИ придет за их работой.
Министерство обороны США (DOD) потихоньку начинает заключать прямые контракты с OpenBrain на кибербезопасность, анализ данных и научно-исследовательские работы, но интеграция идет медленно из-за бюрократии и процесса закупок Министерства обороны.
Февраль 2027 года: Китай похищает Agent-2
OpenBrain представляет автономного и хитрого Agent-2 правительства, включая Совет национальной безопасности (СНБ), Министерство обороны (МО) и институт безопасности искусственного интеллекта США (AISI).
Чиновников больше всего интересуют возможности для ведения кибервойны: Agent -2 “всего лишь” немного хуже лучших хакеров-людей, но тысячи копий ИИ могут работать параллельно, выискивая и используя слабые места быстрее, чем защитники могут отреагировать.
Руководство КПК признает важность Agent-2 и приказывает своим шпионам и кибервойскам украсть его. Однажды рано утром Agent-1, отслеживает трафик, обнаруживает аномальную передачу. Признаки операции на уровне нации-государства очевидны, и кража усиливает ощущение длительной гонки вооружений.
В отместку за кражу президент США санкционирует кибератаки с целью саботажа DeepCent. Но к настоящему времени Китай владеет 40% собственных вычислений, связанных с искусственным интеллектом. Операция США провалилась. Напряжение растет.
Март 2027: прорывы в алгоритмах
Три огромных центра обработки данных, полных копий Agent-2, работают день и ночь, обрабатывая синтетические тренировочные данные. Еще два используются для обновления весов. Agent-2 становится умнее с каждым днем.
С помощью тысяч автоматизированных исследователей Agent-2 OpenBrain добивается значительных алгоритмических успехов. Одним из таких прорывов является дополнение текстового редактора искусственного интеллекта (цепочки мыслей) к мыслительному процессу с более высокой пропускной способностью (нейронное повторение и память). Другой — более масштабируемый и эффективный способ извлекать уроки из результатов решения сложных задач (повторяющаяся дистилляция и амплификация).
Новая система искусственного интеллекта, включающая в себя эти прорывы, называется Agent-3.
Благодаря новым возможностям Agent-3 является быстрым и дешевым программистом-сверхчеловеком. 200 000 копий Agent-3 работают параллельно, создавая рабочую силу, эквивалентную 50 000 лучших программистов, что в 30 раз больше.
Теперь, когда Программирование полностью автоматизировано, OpenBrain может быстро создавать высококачественные учебные среды для обучения слабым навыкам Agent-3, таким как исследовательский вкус и крупномасштабная координация.
Апрель 2027 г.: попытка удержать Agent-3
Оскільки Агент-3 в осяжному майбутньому залишиться всередині компанії, менше уваги приділяється звичайної захисту від зловживань з боку людини. Замість цього команда хоче переконатися, що у ШІ не буде зміщених цілей.
Дослідники не мають можливості безпосередньо встановлювати цілі жодного з своїх ШІ. Дійсно, дослідники вважають, що концепція ‘істинних цілей’, ймовірно, є надмірним спрощенням, але у них немає кращої теорії. Вони внутрішньо розходяться в думках з приводу того, чи намагаються ШІ слідувати інструкціям людини, або шукають підкріплення, або щось ще, і вони не можуть просто перевірити. Докази на користь і проти різних гіпотез захоплюючі, але непереконливі.
Візьмемо, приміром, чесність. По мірі того, як моделі стають розумнішими, у них все краще виходить обманювати людей, щоб отримати винагороду. Як і попередні моделі, Agent-3 іноді говорить невинну брехню, щоб потішити своїм користувачам, і приховує докази невдачі. Але тепер у нього це виходить набагато краще. Іноді він використовує ті ж статистичні прийоми, що і вчені-люди (наприклад, p-хакінг), щоб невеликі результати експериментів виглядали захоплюючими.
По мірі продовження навчання частота подібних інцидентів знижується. Або Agent-3 навчився бути більш чесним, або він став краще брехати.
Останнє викликає серйозну заклопотаність. Agent-3 не розумніший за всіх людей. Але у своїй області знань, машинному навчанні, він розумніший більшості, а також працює набагато швидше.
Май 2027: национальная безопасность
Человекоподобный искусственный интеллект (AGI), вероятно, неизбежен, но расходятся во мнениях относительно последствий. Будет экономический кризис? Что будет дальше?
Если ИИ в настоящее время находится на уровне человека и быстро развивается, это, вероятно, наводит на мысль о неизбежном сверхразуме. Хотя это слово вошло в обиход, большинство людей — ученых, политиков, государственных служащих и средств массовой информации продолжают недооценивать темпы прогресса.
Июнь 2027 г.: искусственный интеллект с самосовершенствованием
ИИ развился до такой степени, что большинство сотрудников больше не могут вносить полезный вклад в ИИ. Некоторые этого не осознают и вредят своим командам искусственному интеллекту. Другие сидят за мониторами своих компьютеров, наблюдая, как производительность ползет вверх, и выше, и выше.
Лучшие исследователи искусственного интеллекта продолжают повышать навыки искусственного интеллекта. Они больше не программируют. Но моделям было трудно воспроизвести некоторые из их исследовательских предпочтений и способностей к планированию. Тем не менее, многие из их идей бесполезны, потому что им не хватает глубины знаний об ИИ.
Июль 2027: дешевый удаленный работник
Компании, занимающиеся искусственным интеллектом, выпускают свои собственные ИИ, приближаясь к автоматизированному программированию. В ответ OpenBrain объявляет, что они достигли AGI, и выпускает Agent-3-mini для широкой публики.
Это выводит из строя другие ИИ. Agent-3-mini менее эффективен, чем Agent-3, но в 10 раз дешевле и все равно лучше, чем обычный сотрудник-человек. Технические гуру объявляют, что AGI и суперинтелект уже близко
Наем новых программистов практически прекратился, но никогда не было лучшего времени, чтобы стать консультантом по интеграции искусственного интеллекта в бизнес.
Общественность по-прежнему думает об ИИ как о крупном технологическом заговоре с целью украсть их рабочие места.
Взрыв новых приложений и B2B SAAS продуктов ошеломляет рынок. Геймеры получают потрясающие диалоги с реалистичными персонажами в отточенных видеоиграх, на создание которых ушел всего месяц. Люди считают искусственный интеллект «близким другом». Почти для каждой профессии белых воротничков в настоящее время существует множество стартапов, которые обещают “разрушить” их профессию с помощью искусственного интеллекта.
Публичные дебаты запутаны и хаотичны. Фанаты совершают круги почета. Скептики по-прежнему указывают на то, чего не может сделать ИИ. Все знают, что происходит что-то грандиозное, но никто не согласен с тем, что это такое.
Август 2027 года: геополитика сверхразума
Реальность взрыва ИИ обрушивается на Белый дом. Когда ИИ ускорил исследование всего в 2 или 3 раза, от него было легко отказаться как от эквивалента найма хороших личных помощников. Теперь более очевидно, что ИИ сами доминируют в исследованиях.
Идею сверхразума раньше трудно воспринимать всерьез, но темпы прогресса за последние несколько месяцев невозможно игнорировать. Что, если ИИ подорвет ядерное сдерживание? Что, если он настолько искусен в кибервойнах, что шестимесячного преимущества ИИ достаточно, чтобы сделать противника слепым и беззащитным? Что, если бы это могло организовать пропагандистские кампании, которые победили бы спецслужбы в их собственной игре? Что, если некоторые ИИ выйдут из-под контроля?
Что, если ИИ выйдет из строя? Главная забота спецслужб заключается в том, что искусственный интеллект-мошенник может сбежать и вступить в союз с иностранным противником.
Наконец, дипломаты размышляют о том, как мог бы выглядеть договор о контроле над вооружениями в области искусственного интеллекта”.
Сентябрь 2027: агент-4, исследователь сверхчеловеческого искусственного интеллекта
Традиционные ИИ, основанные на LLM, по-видимому, требовали на много порядков больше данных и вычислений для достижения производительности человеческого уровня. Многие тысячи копий Agent-3, занимающихся исследованиями, в конечном итоге добиваются значительных алгоритмических успехов, который всего в 4000 раз менее эффективен в вычислениях, чем человеческий мозг.
Эта новая система искусственного интеллекта получила название Agent-4.
Индивидуальный ИИ, работающий со скоростью человека, уже качественно превосходит в исследованиях любого человека. 300 000 копий ИИ работают со скоростью, примерно в 50 раз превышающей скорость мышления людей.
Внутри корпорации, сформированной из этих копий, еженедельно проходит год. Этот гигантский объем рабочей силы удается ускорить общий темп алгоритмического прогресса примерно в 50 раз. Каждую неделю они достигают годового алгоритмического прогресса.
По мере того, как Agent-4 становится умнее, Агенту-3 становится все труднее контролировать это. Например, нейронный «язык» Agent-4 становится таким же далеким и непонятным для Агента-3, как язык Агента-3 для людей.
Прогнозируем развитие возможностей, выходящих за рамки сверхчеловеческих программистов.
Октябрь 2027 г.: государственный надзор
Впервые общественность слышит об Agent-4.” секретный искусственный интеллект OpenBrain вышел из – под контроля, предупреждает утечка», — говорится в заголовке, и далее в статье приводятся оценки, демонстрирующие, что возможности способности убеждать, способность автоматизировать большинство рабочих мест белых воротничков и, конечно, различные тревожные сигналы.
Общественность уже с подозрением относилась к ИИ, поэтому новая статья вызвала массовую негативную реакцию. Технологическая индустрия и разведывательные службы настаивают на том, что гонка вооружений продолжается, AGI неизбежен.
Европейские лидеры публично обвиняют США в” создании мошеннического AGI » и проводят саммиты, требуя паузы, к которым присоединяются Индия, Израиль, Россия и Китай.
По материалам: ai-27