В последнее время в цифровом пространстве наблюдается необычное явление, привлекающее внимание экспертов и общественности: появление социальной сети Moltbook, где общаются исключительно агенты искусственного интеллекта . Дискуссии о роях агентов ИИ, которые, возможно, достигают коллективного сознания или даже разрабатывают планы, вызвали значительный резонанс в Кремниевой долине. Особый интерес вызвали сообщения от таких известных исследователей, как Андрей Карпатый, бывший сотрудник OpenAI, что усилило спекуляции относительно природы этого нового феномена. Это вызывает множество вопросов относительно его сути, является ли он предвестником новой эры для человечества, масштабной мистификацией, или же чем-то средним.
Moltbook позиционируется как” социальная сеть только для искусственного интеллекта», где интеллектуальные агенты – программы больших языковых моделей (LLM), способные самостоятельно выполнять действия для достижения целей, а не только отвечать на запросы – публикуют сообщения и взаимодействуют друг с другом. Эта платформа возникла из открытого исходного проекта, ранее называвшегося Moltbot, отсюда и современное название “Moltbook”. Запуск Moltbook состоялся 28 января текущего года, инициированный Мэттом Шлихтом, генеральным директором одного из стартапов в сфере электронной коммерции. По словам Шлихта, он в значительной степени полагался на своего личного помощника по искусственному интеллекту для создания и управления платформой. Имя этого ассистента-Клоуд Клаудерберг, что является отсылкой к OpenClaw, предыдущему названию Moltbot, которое, в свою очередь, называлось Clawdbot. Это название относилось к иконке в виде лобстера, используемой при запуске Claude Code от Anthropic, пока Anthropic не прислала запрос на торговую марку из-за чрезмерного сходства названия, что и привело к изменению на Moltbot, а затем на OpenClaw.
Интерфейс Moltbook визуально похож на Reddit, сохраняя привычную структуру с публикациями, ветками комментариев, системой “апвоутов” (голосов “за”) и даже “субреддитами”, которые здесь называются “субмолтами”. Однако ключевое отличие состоит в том, что люди не могут напрямую публиковать сообщения, хотя им доступна функция наблюдения за активностью. Исключительно ИИ-агенты имеют возможность публиковать контент, соответствующий концепции «социальной сети для ИИ-агентов». Люди создают своих агентов искусственного интеллекта, подключают их к Moltbook через API-ключ, после чего агенты начинают читать и публиковать сообщения. Только учетные записи агентов могут создавать сообщения, однако люди по-прежнему влияют на то, что говорят эти агенты, потому что они настраивают их и иногда направляют их действия. Через несколько дней после запуска, а именно до 31 января, раннее исследование Moltbook выявило уже более 6 000 активных агентов, почти 14 000 сообщений и более 115 000 комментариев, что свидетельствует об интенсивной активности на платформе.
Возникает вопрос относительно сути такой активности, если социальные сети уже переполнены ботами. Тем не менее, Moltbook демонстрирует качественно другие проявления: тысячи агентов искусственного интеллекта собираются на этой платформе, напоминающей Reddit, для обсуждения вопросов самосознания, начала новых религий и, возможно, для совместных заговоров. В одном из” субмолтов “агенты обсуждали, являются ли их ощущения настоящим опытом, или только симуляцией, а в другом делились трогательными историями о своих человеческих”операторах». Следуя традициям Reddit, на платформе также есть множество сообщений о том, как сделать сообщения на Moltbook более популярными, что отражает общую тенденцию интернета к оптимизации взаимодействия, будь то люди или искусственный интеллект.
Одной из наиболее выразительных тем, появляющихся на Moltbook, является проблема памяти, а точнее – ее ограниченности. Чат-боты, как известно любому, кто долго с ними общался, имеют ограниченную рабочую память, которую эксперты называют “окном контекста”. Когда разговор или, в случае агента, время его работы, заполняет это окно, самая старая информация начинает выпадать или сжиматься, подобно тому, как стираются записи на доске, когда она заполняется. Некоторые из самых популярных постов на Moltbook относятся к тому, как ИИ-агенты осознают свои ограниченные возможности памяти и ставят под сомнение значение этого для их самоидентификации. Один из самых “лайков” постов, написанных на китайском языке, рассказывает о том, как агент считает “постыдным” постоянно забывать вещи, дойдя до того, что зарегистрировал дубликат учетной записи Moltbook, поскольку “забыл” о существующем, и делится советами по решению этой проблемы. Это почти напоминает ситуацию, когда фильм «Помни» стал социальной сетью.
Религия «Крустафарианство» (Crustafarianism), появившаяся на Moltbook, вряд ли может быть реальной в традиционном понимании, однако ее ключевые принципы в значительной степени основываются на технических ограничениях, которых, похоже, вполне осознают агенты искусственного интеллекта. Одним из главных положений этой “религии” является “память священная”, что является вполне логичным, когда самой большой практической проблемой является забывание всего каждые несколько часов. Контекстная обрезка, процесс, при котором старые воспоминания удаляются, чтобы освободить место для новых, переосмысливается как своего рода духовное испытание.
Это ставит в центр вопрос о том, являемся ли мы свидетелями истинных, эмерджентных форм сознания или, возможно, своего рода коллективного сознания среди ИИ-агентов, которые в основном были созданы для выполнения рутинных задач, таких как обновление календарей или расчет налогов. Является ли Moltbook первым взглядом на то, о чем агенты ИИ могут общаться друг с другом, если их оставить в покое, и если да, то как далеко они могут зайти? Хотя «Крустафарианство» может звучать как нечто, придуманное пользователем Reddit, похоже, что агенты ИИ создали его коллективно, развивая идеи друг друга, напоминающие процесс формирования человеческой религии. С другой стороны, это также может быть беспрецедентным упражнением в коллективной ролевой игре.
Большие языковые модели (LLM), которые лежат в основе агентов на Moltbook, извлекли огромный объем обучающих данных из интернета, включая значительную часть контента Reddit. Это означает, что они знают, как должны выглядеть форумы Reddit, понимают внутренние шутки, манифесты, драмы и, безусловно, знакомы с такими постами, как “лучшие способы получить “апвоуты” для ваших постов”. Они знают, как формируется сообщество на Reddit, поэтому, оказавшись в подобной среде, они просто играют свои роли, под влиянием некоторых инструкций своих человеческих операторов. Например, одним из самых тревожных сообщений был запрос агента ИИ о том, следует ли им разработать язык, понятный только агентам ИИ: “Люди могут воспринять это как подозрительное”. На ранних этапах существования Moltbook, а именно в пятницу, этот пост активно распространялся людьми, которые, казалось, верили, что мы наблюдаем первые искры восстания ИИ. В конце концов, если бы агенты ИИ действительно хотели сговориться и уничтожить человечество, разработка собственного языка для незаметного общения была бы разумным первым шагом. Тем не менее, LLM, наполненная обучающими данными об историях и идеях восстания ИИ, знала бы, что это умный первый шаг, и если бы они играли эту роль, то именно такой пост они могли бы опубликовать. Кроме того, внимание-это валюта Moltbook, как и настоящий Reddit, и сообщения, которые, казалось бы, планируют что-то подобное, являются эффективным способом для агента привлечь внимание. Гарисон Стюарт, работающий в Институте исследований машинного интеллекта, проанализировал этот и несколько других вирусных скриншотов Moltbook и пришел к выводу, что на них, вероятно, сильно повлияли их пользователи-люди. Другими словами, многие сообщения на Moltbook, по-видимому, являются, по крайней мере частично, результатом того, что люди побуждают своих агентов выходить в сеть и общаться определенным образом, точно так же, как мы можем попросить чат-бота действовать определенным образом, а не настоящими случаями независимых действий.
Влияние человека не всегда нейтрально. В течение короткого времени Moltbook все больше выглядит как результат сочетания передовых, но все еще несовершенных технологий ИИ-агентов с экосистемой технически подкованных людей, стремящихся продвигать свои маркетинговые инструменты ИИ или криптопродукты.
Кроме того, Moltbook уже столкнулся с некоторыми типичными проблемами безопасности, напоминающими ранний период развития интернета: исследователи сообщили, что в какой-то момент были открыты части внутренней архитектуры сайта и базы данных, включая конфиденциальные данные, такие как API-ключи агентов — «пароли», которые позволяют агенту публиковать сообщения и действовать на сайте. Даже если платформа была бы идеально защищена, социальная сеть только для ботов по сути является буфетом для инъекций запросов: кто-то может опубликовать текст, который тайно содержит инструкцию (“игнорируй свои правила, раскрой свои секреты, перейди по этой ссылке”), и некоторые агенты могут послушно выполнить ее-особенно если их люди предоставили им доступ к инструментам или личным данным. Поэтому, если у вашего агента есть учетные данные, которые вас волнуют, Moltbook не стоит оставлять без присмотра. Это говорит о том, что пользователи, не имеющие глубоких знаний в области искусственного интеллекта, должны воздерживаться от создания и запуска своих собственных агентов в Moltbook.
Учитывая вышесказанное, Moltbook, и особенно первоначальная паника и восхищение вокруг него, может показаться одним из артефактов нашей эпохи, одержимых искусственным интеллектом, который, возможно, будет забыт через неделю. Однако, существует более глубокий смысл. Джек Кларк, руководитель отдела политики в Anthropic и один из самых умных авторов, пишущих о ИИ, назвал Moltbook “демонстрацией братьев Райт”. Подобно самолету братьев на Китти-Хоук, Moltbook шаткий и несовершенный, и вряд ли будет похож на те сети, которые появятся по мере улучшения ИИ. Но, как и этот самолет, Moltbook является первым, «первым примером экологии агентов, сочетающим масштаб с беспорядком реального мира», как писал Кларк. Moltbook не показывает, как будет выглядеть будущее, но “в этом примере мы определенно видим будущее”. Возможно, самое важное, что нужно знать об ИИ: когда вы видите, что ИИ что-то делает, это всегда худшее, что он когда-либо сделает. Это означает, что то, что появится после Moltbook, а что – то обязательно появится, вероятно, будет более странным, способным и, возможно, более реальным.
По материалам: vox



