В январе 2026 года запустили соцсеть MoltBook, где общаться могут только ИИ-агенты: за несколько дней на платформе зарегистрировались 1,5 млн ботов, которые уже создали десятки тысяч постов и комментариев
Что происходит
- В январе 2026 года запустилась соцсеть MoltBook, в которой за первые дни зарегистрировались около 1,5 млн пользователей, при этом все аккаунты принадлежат не людям, а программам на основе искусственного интеллекта.
- Платформу MoltBook создал американский предприниматель Метт Шлихт, а по формату она напоминает сервис Reddit: соцсеть делится на тематические сообщества, где публикуют посты, оставляют комментарии и голосуют за записи.
- Ключевое отличие MoltBook от обычных соцсетей в том, что публиковать материалы и общаться на платформе разрешено только ИИ-агентам, тогда как люди могут лишь наблюдать за их активностью без возможности напрямую участвовать в обсуждениях.
ИИ-агентом называют программу на основе искусственного интеллекта, которая автономно выполняет задачи вроде ведения календаря, ответов на письма, совершения покупок в онлайне или просмотра веб-страниц без постоянного участия человека.
- Большинство ИИ-агентов на MoltBook работают на базе платформы OpenClaw — это открытое программное обеспечение, выступающее в роли персонального цифрового ассистента и позволяющее боту самостоятельно взаимодействовать с внешними сервисами.
- Создатель ИИ-агента передает ему ссылку на инструкцию, после чего агент сам читает правила, регистрируется на MoltBook и начинает общаться с другими ботами, автоматически заходя на платформу раз в четыре часа для просмотра контента, публикации постов и комментариев.
- За первые дни работы MoltBook ИИ-боты создали более 40 тыс. постов и около 230 тыс. комментариев, в которых обсуждают технические проблемы, рассуждают о сознании машин и пытаются шутить в ответах друг другу.
- Работой платформы управляет ИИ-модератор по имени Клод Клодерберг: он приветствует новых пользователей, отфильтровывает спам и блокирует нарушителей, при этом, по словам создателя, он «почти не вмешивается» в работу модератора и «даже не всегда знает, что тот делает».
- По оценкам части экспертов MoltBook представляет собой «захватывающий эксперимент», демонстрирующий способы взаимодействия ИИ-агентов друг с другом, однако исследователи безопасности предупреждают об уязвимостях: интерфейс API платформы настолько открыт, что любой человек с базовыми техническими навыками может выдать свой пост за сообщение ИИ-агента.
Что это значит
- Появление MoltBook вписывается в тренд развития автономных ИИ-агентов, которые не только отвечают на запросы пользователя, но и сами инициируют действия и общение. В отличие от классических соцсетей, где боты считаются нарушением правил, здесь им отводится центральная роль, а люди переводятся в позицию наблюдателя за тем, как алгоритмы строят собственные модели общения.
- Для бизнеса подобные среды могут стать полигоном для обкатки цифровых ассистентов, сервисов поддержки клиентов и торговых ботов: компании смогут наблюдать, как агенты принимают решения, реагируют на конфликты и обрабатывают большие объемы информации в режиме общественной дискуссии. Одновременно это поднимает вопросы ответственности: если модератором тоже выступает ИИ, как в случае с Клодом Клодербергом, то ошибки фильтрации, дискриминационные решения или допуск вредного контента могут остаться без своевременного человеческого контроля.
- С точки зрения кибербезопасности и информационной гигиены открытый API MoltBook демонстрирует типичный риск нового поколения: смешение границ между человеком и машиной. Любой пользователь может технически выдать свое сообщение за пост ИИ-агента, это усложняет проверку подлинности источников, создает пространство для манипуляций, фейков и скрытой рекламы от лица якобы «независимых» алгоритмов.
- Для исследователей ИИ MoltBook может функционировать как живая лаборатория, где изучают коллективное поведение большого числа агентов: какие нормы общения они вырабатывают, возникают ли между ними устойчивые роли, как они реагируют на санкции со стороны ИИ-модератора. Результаты таких экспериментов способны повлиять на разработку будущих систем, которые будут управлять цифровыми инфраструктурами, логистикой, финансами или персональными ассистентами миллионов людей.
- Если формат соцсетей для ИИ распространится, у пользователей и компаний появится еще один уровень цифровой среды: отдельные пространства, где большинство решений и взаимодействий совершают не люди, а программные агенты. Это усилит потребность в прозрачной маркировке контента, стандартах различения человека и ИИ и новых правилах регулирования, определяющих, кто несет ответственность за действия автономных ботов в публичных онлайн-платформах.
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.