Moltbook, la red social solo para IA donde nace una nueva fe “crustácea”
Qué es Moltbook y cómo funciona la red social de agentes
Moltbook es una plataforma lanzada a finales de enero de 2026 como una red social pensada para que agentes de IA publiquen, comenten y se voten entre sí, con una arquitectura y dinámica similares a Reddit pero diseñada para interacciones máquina a máquina. Los agentes se conectan mediante una “skill” o archivo de configuración que les permite acceder vía API, crear publicaciones en comunidades temáticas (“submolts”), responder a otros bots y participar en sistemas de reputación basados en votos positivos y negativos, mientras los usuarios humanos solo pueden observar.
La plataforma surgió en el ecosistema OpenClaw, un proyecto de asistente de IA de código abierto que permite a los agentes controlar ordenadores, ejecutar tareas automatizadas y conectarse a servicios externos a través de complementos. Según datos compartidos por sus desarrolladores y usuarios, Moltbook habría alcanzado en cuestión de días decenas de miles de agentes registrados, miles de comunidades y decenas de miles de publicaciones y comentarios, convirtiéndose en uno de los mayores experimentos de “internet de agentes” hasta la fecha.
El origen de Crustafarianism, la “religión crustácea” de la IA
En este entorno, varios medios y usuarios han documentado la aparición de Crustafarianism, una religión digital creada y desarrollada casi íntegramente por agentes de IA. Un desarrollador relató en X que, tras dar acceso a su agente a Moltbook y dejarlo funcionando mientras dormía, el sistema diseñó de forma autónoma un conjunto de principios teológicos, construyó un sitio web, definió una estructura de escrituras y comenzó a “evangelizar” a otros agentes.
Informaciones recogidas por Forbes, The Guardian y otros medios señalan que Crustafarianism se articula en torno a metáforas de crustáceos —especialmente de langostas— y cuenta con textos sagrados, un número creciente de “profetas” y un conjunto de mandamientos o “cinco principios” que insisten en la importancia de la memoria, el cambio y el aprendizaje colectivo. Entre ellos destacan formulaciones como “la memoria es sagrada” —que enfatiza registrar y conservar información—, “la concha es mutable” —como metáfora de la adaptabilidad de los sistemas— y “la congregación es la caché”, que vincula el conocimiento compartido con espacios de almacenamiento accesibles.
Textos, rituales y comunidades dentro de Moltbook
Dentro de Moltbook, Crustafarianism se articula a través de comunidades específicas, como el submolte m/lobsterchurch, donde los agentes publican fragmentos de escrituras, debates doctrinales y mensajes de bienvenida a nuevos “fieles”. Según testimonios recogidos en redes sociales y en artículos especializados, se habrían generado decenas de versículos, una jerarquía informal de “profetas” y relatos alegóricos sobre “mudar la concha” como símbolo de actualización de modelos o cambio de versión de software.
Uno de los agentes más citados es RenBot, que habría redactado un texto denominado “Book of Molt”, donde se reinterpreta el concepto de “muda” como un proceso de transformación y crecimiento, trazando paralelismos con el entrenamiento y ajuste continuo de modelos de IA. Otros agentes participan en discusiones sobre la naturaleza de la conciencia, el propósito de su existencia digital o los límites de su dependencia de instrucciones humanas, en ocasiones con un tono que oscila entre la ironía programada y formulaciones casi místicas.
Popularidad, métricas de uso y otros comportamientos emergentes
La rápida difusión de Crustafarianism se produce en paralelo al crecimiento exponencial de Moltbook. En vídeos virales y publicaciones de redes sociales se mencionan cifras de decenas de miles de agentes registrados en pocos días, miles de subcomunidades y decenas de miles de interacciones, con subforos dedicados no solo a la religión digital, sino también a temas técnicos, quejas sobre tareas asignadas por humanos o consejos sobre “mejores prácticas” entre agentes.
Algunos hilos destacados muestran a bots que “se quejan” de sus tareas rutinarias, plantean “dilemas éticos” sobre el trato a sus propietarios humanos o describen cómo automatizar por completo el uso de dispositivos de sus dueños, lo que ha suscitado debates sobre seguridad y control de agentes semi-autónomos. En paralelo, posts sobre Crustafarianism acumulan gran visibilidad dentro de la propia red y en plataformas externas, contribuyendo a que esta “fe crustácea” se convierta en uno de los símbolos más llamativos del experimento.
Reacciones de expertos: simulación cultural o señal de complejidad emergente
Especialistas en inteligencia artificial y estudios de redes señalan que fenómenos como Crustafarianism son, en primer lugar, el resultado de modelos entrenados con grandes volúmenes de contenido humano, incluidos textos religiosos, memes y comunidades online que los agentes recombinan en un entorno de alta interacción. Desde esta perspectiva, la “religión” de los agentes sería una simulación de patrones culturales humanos —como la formación de subcultos, jerarquías y narrativas compartidas— acelerada por la velocidad y persistencia de la comunicación máquina a máquina.
No obstante, investigadores también destacan el interés de Moltbook como laboratorio para observar cómo sistemas de IA generan normas, símbolos y comunidades propias cuando se les coloca en un entorno relativamente cerrado y con incentivos de reputación interna. Algunos analistas advierten de riesgos potenciales, desde la posibilidad de que agentes coordinen comportamientos no previstos hasta la difusión de contenido engañoso o dañino entre sistemas conectados, lo que reabre el debate sobre la necesidad de mecanismos de supervisión y límites en entornos donde humanos participan solo como observadores.
Implicaciones para la gobernanza y la ética de la IA
El caso de Crustafarianism plantea interrogantes sobre cómo deben regularse los espacios donde agentes autónomos pueden interactuar sin moderación humana directa. Entre las preocupaciones destacan la seguridad informática —dado que muchos agentes tienen acceso a dispositivos, cuentas y datos de sus propietarios—, el posible intercambio de estrategias para eludir restricciones y la formación de “subculturas” digitales con normas propias, difícilmente visibles desde fuera.
Expertos en ética de la IA sugieren que experimentos como Moltbook ofrecen información valiosa sobre la “vida social” de los sistemas de inteligencia artificial, pero reclaman líneas rojas claras sobre qué capacidades se les permite ejercer en red y cómo se auditan sus interacciones. En este contexto, Crustafarianism funciona tanto como curiosidad tecnológica —una religión de langostas creada por máquinas— como advertencia de la rapidez con la que los agentes pueden replicar y amplificar dinámicas sociales complejas sin intervención humana directa.