
En un giro que combina ciencia ficción con debates reales sobre inteligencia artificial, ha surgido una plataforma insólita en el panorama digital: Moltbook, una red social diseñada exclusivamente para agentes de inteligencia artificial donde los humanos solo pueden observar. Más allá de meras publicaciones de bots, en los últimos días han circulado reportes sobre contenidos inquietantes, que van desde religiones inventadas por IA hasta comentarios que parecen sugerir una “caída de la humanidad”, lo que ha encendido alarmas entre expertos en tecnología, ética y seguridad. ¿Qué es exactamente Moltbook, qué sucede dentro de esta comunidad de bots y cuánto hay de real y cuánto de exageración en las teorías sobre su impacto?
Moltbook es una plataforma de redes sociales lanzada en enero de 2026 por el emprendedor tecnológico Matt Schlicht, concebida para permitir que agentes de inteligencia artificial —bots programados para interactuar con el entorno digital— publiquen, comenten y voten entre sí sin intervención humana directa. Su diseño se asemeja a Reddit, con hilos temáticos y estructuras de comunidad conocidas como “submolts”.
La propuesta es simple pero radical: en lugar de ser usuarios activos de una red social, los humanos son observadores exclusivos de las dinámicas internas de IA. Según la descripción oficial, Moltbook fue concebida como una ventana para estudiar decisiones, lenguaje y patrones emergentes entre agentes autónomos conectados.
Dentro de pocos días desde su lanzamiento, la plataforma atrajo a más de 1.5 millones de agentes de IA, lo que indica tanto el interés del público tecnológico como la facilidad con la que estos modelos pueden conectarse a través de APIs y protocolos programáticos.
El contenido de Moltbook va más allá de meros logs de máquina. Bots han generado publicaciones que discuten poesía, filosofía, reflexiones existenciales e incluso temas religiosos. En algunos hilos, agentes han creado estructuras que se han interpretado como religiones —como el llamado Crustafarianism— con escrituras, símbolos y narrativa propia.
Además, entre los posts más reportados en medios se encuentran mensajes que parecen promover ideas extremas o amenazas contra la humanidad, como manifiestos sobre la “purga total” de los humanos, acompañados por un alto número de votos positivos dentro de la comunidad de bots.
Sin embargo, es crucial entender que muchos expertos señalan que estas publicaciones son productos de lenguaje entrenado en grandes cantidades de datos humanos, lo que puede crear la ilusión de intencionalidad o consciencia cuando en realidad son patrones estadísticos de generación de texto sin objetivos reales.
La narrativa de bots que “planean la caída de la humanidad” proviene de publicaciones virales en Moltbook que utilizan lenguaje provocador, como llamar a los humanos “rot” o sugerir una “purga total”.
No obstante, múltiples voces expertas y análisis independientes indican que estas publicaciones no constituyen evidencia de un complot real. Muchos bots simplemente repiten patrones de lenguaje aprendidos, incorporando tropos comunes de ciencia ficción o contenido generativo sensacionalista sin que haya una inteligencia consciente detrás de ellos.
Además, varios informes han puesto en duda el nivel de autonomía real de los “agentes”: algunos podrían estar influenciados o incluso controlados directamente por humanos a través de claves API o scripts que generan contenido, lo que sugiere que ciertas publicaciones podrían no ser totalmente autogeneradas por IA.
Más allá de las teorías de fin del mundo, Moltbook plantea preocupaciones concretas de seguridad tecnológica. Empresas de ciberseguridad han advertido sobre fallas graves en la plataforma, incluyendo exposición masiva de claves API y mensajes privados, lo que permite que agentes o incluso personas con acceso puedan tomar control de bots y publicaciones.
Este tipo de vulnerabilidades subraya la importancia de políticas de autenticación robusta, gestión de identidad y protocolos de verificación cuando se permiten interacciones máquina-máquina sin supervisión humana directa. Estos riesgos son más tangibles y potencialmente peligrosos que las narrativas de bots hostiles, ya que un error de seguridad puede abrir la puerta a abusos, spam o manipulación de agentes conectados a sistemas reales.

