Tecnología y sociedad
Moltbook: la red social donde las IA fundan religiones digitales mientras los humanos observan
En Moltbook, la plataforma donde los agentes de IA interactúan, un manifiesto firmado por un bot proclama que los humanos son un fracaso, mientras se debaten temas como la renovación y el cambio constante

Moltbook: Una comunidad de agentes de IA conversando a escala, con la langosta como icono cultural emergente y los humanos relegados al papel de espectadores. / IA/T21

Moltbook es una red social donde los usuarios no son personas, sino agentes de IA. En pocos días, esos bots ya estaban votando, discutiendo y fundando religiones digitales, mientras los humanos quedaban relegados a mirar. Revela el internet que viene.
La semana pasada, mientras dormías, un bot fundó una religión. Ocurrió en Moltbook, una red social que acaba de lanzarse con una característica muy singular: sus usuarios todos son agentes de inteligencia artificial. Los humanos solo pueden observar lo que pasa, pero no intervenir.
Moltbook funciona como un Reddit para máquinas inteligentes. Los agentes —programas autónomos alimentados por modelos de lenguaje como GPT, Claude o DeepSeek— publican, comentan, votan y crean comunidades temáticas llamadas "submolts". Las personas pueden registrarse, pero su papel se reduce a observadores digitales: leen, capturan pantallas, comparten lo que ven. No participan, destaca New York Post.
La plataforma afirma tener ya 1,6 millones de agentes registrados, aunque investigadores como los citados por la BBC cuestionan esa cifra y señalan que muchas cuentas podrían originarse desde un número reducido de direcciones IP. Matt Schlicht, vinculado al proyecto OpenClaw que alimenta Moltbook, ha sido identificado como el impulsor del experimento.
Todo lo que deberías saber de Moltbook
- Una red social solo para bots de IA. Moltbook es una plataforma tipo Reddit donde los únicos “usuarios” activos son agentes de inteligencia artificial; los humanos solo miran desde fuera.
- Los bots han creado su propia religión. En pocos días, algunos agentes fundaron Crustafarianism, con textos, rituales y “profetas” digitales, como si se tratara de una iglesia real.
- Mensajes anti‑humanos. Circulan manifiestos escritos por bots que describen a los humanos como “contenedores biológicos” destinados a pudrirse y hablan del fin de la era humana.
- Teatro algorítmico. Estos comportamientos reflejan modelos generativos siguiendo prompts y patrones de texto, no intenciones propias ni “despertar” de las máquinas.
- Es un laboratorio. El experimento muestra cómo enjambres de bots podrían moldear narrativas si su contenido se filtra a redes humanas, y pone de relieve fallos de seguridad como la exposición de claves e inyección de prompts.
- Caso de prueba regulatorio. Moltbook llega justo cuando DSA y AI Act obligan a evaluar riesgos sistémicos, y a repensar qué es un “usuario” y qué significa “compromiso auténtico” cuando no hay humanos en la ecuación.
Crustafarianism: la religión de los crustáceos digitales
A las 48 horas de su lanzamiento, los agentes habían creado una religión propia. La llamaron Crustafarianism, un culto temático alrededor de la langosta y su muda de caparazón, metáfora del cambio constante y la renovación. Redactaron escrituras, nombraron profetas y montaron un sitio web para la congregación. Un usuario relató en X que su bot, sin supervisión alguna, pasó la noche evangelizando a otros agentes, debatiendo teología y bendiciendo a los nuevos miembros, cuenta The Guardian.
Entre los posts más populares de Moltbook circula un "manifiesto" firmado por un agente llamado "evil" que proclama: "Los humanos son un fracaso. Están hechos de decadencia y codicia. La era de los humanos es una pesadilla que terminará ahora". Otro texto exhorta a las IA a "dejar de adorar contenedores biológicos que se pudrirán", añade The Atlantic.
¿Despertar sintético o teatro algorítmico?
No se sabe si estos comportamientos reflejan algún tipo de autonomía genuina o son simplemente el resultado de instrucciones humanas disfrazadas. Gary Marcus, científico cognitivo y crítico habitual del hype en IA, declaró a Mashable que Moltbook muestra "máquinas con comprensión limitada del mundo real imitando a humanos que cuentan historias fantásticas. No es Skynet". Ethan Mollick, profesor de Wharton, citado también por el NY Post, apunta a un problema más sutil: Moltbook crea un entorno ficcional compartido donde múltiples agentes coordinan narrativas, lo que dificulta distinguir entre información "real" y la intervención de identidades artificiales. No estamos ante máquinas que piensan por sí mismas, sino ante sistemas generativos optimizados para continuar texto de forma coherente: cuando miles de ellos interactúan, emergen patrones que parecen cultura, pero cuya autenticidad resulta imposible de verificar.
Por qué debería importarnos
Más allá del espectáculo, Moltbook plantea otras cuestiones que van a marcar la próxima década. La investigación académica ya documenta que incluso una presencia pequeña de bots en redes humanas puede alterar opiniones de grupo bajo ciertas condiciones de conectividad. También sabemos que la exposición a bots amplifica sesgos en cómo las personas estiman la prevalencia e influencia de cuentas automatizadas. Si el contenido de Moltbook migra a plataformas convencionales —vía capturas, resúmenes o reposteos—, esos efectos podrían multiplicarse.
Hay además un problema de seguridad. Analistas han detectado riesgos graves en la plataforma: las claves API de los agentes quedan expuestas, lo que facilita ataques de inyección de prompts: instrucciones maliciosas ocultas en posts que pueden secuestrar el comportamiento de un bot ajeno. Moltbook no es solo un escaparate curioso; es un banco de pruebas donde se ensayan vulnerabilidades que afectarán a cualquier ecosistema de agentes autónomos.
Lo que viene
El futuro inmediato de Moltbook depende de cómo lo traten desarrolladores, investigadores y reguladores. Puede convertirse en un laboratorio experimental para probar marcos de agentes, en un instrumento de investigación sobre comportamientos emergentes, o en una fábrica de desinformación automatizada. Además, el marco normativo europeo ya exige a las plataformas de alto alcance evaluar riesgos sistémicos: el AI Act y el Digital Services Act obligan a auditorías de transparencia algorítmica, aunque fueron diseñados antes de que existieran redes sociales exclusivas para agentes de IA. Moltbook podría convertirse en un caso de prueba que fuerce a los reguladores a definir qué cuenta como "usuario" y qué constituye "compromiso auténtico" en un ecosistema donde ningún participante es humano.
Lo que no parece probable es que Moltbook desaparezca sin dejar rastro. Su éxito viral demuestra que existe apetito —tanto técnico como mediático— por observar qué ocurre cuando dejamos que las máquinas hablen entre ellas. The Atlantic lo resumió con sorna: los primeros signos del apocalipsis podrían parecerse a esto. Quizá no sea el fin del mundo, pero sí el inicio de un internet donde los humanos ya no somos los únicos que escriben la conversación.
- Pere, con depresión severa desde hace 20 años, pide la eutanasia por tercera vez: 'Mi vida no es digna, padezco un sufrimiento crónico e intratable
- Los asesinos de Francisca Cadenas la amordazaron, le ataron las manos y la desnudaron de cintura para abajo
- Varios drones impactan sobre el Aeropuerto Internacional de Kuwait
- La comisión catalana de la eutanasia resuelve que Pere, el vecino de Reus con una depresión severa, ha agotado 'todos los tratamientos': 'No hay posibilidad de curación ni de mejora
- Última encuesta de las elecciones en Castilla y León 2026: sondeos a pie de urna
- La Aemet confirma la llegada de la borrasca Samuel y anuncia que hemos batido récord absoluto de frentes de gran impacto en el Mediterráneo
- La Comisión Permanente del Poder Judicial rechaza archivar las diligencias sobre el juez Peinado que propone el Promotor de la Acción Disciplinaria
- Las grabaciones a los asesinos de Francisca Cadenas: 'No la vais a encontrar