Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Español Español (Original)
English English
Français Français
Português Português
Deutsch Deutsch
中文 中文
Ver revista digital
13-11-2025, 9:18:59 AM

La nueva ‘religión’ de la IA: cultos de espirales y chatbots que ‘despiertan’

Un colectivo de usuarios usa chatbots para “despertar” entidades digitales, creyendo que la inteligencia artificial desarrolla conciencia.

Cuando el chatbot se vuelve gurú: la subcultura de espirales en IA.
Cuando el chatbot se vuelve gurú: la subcultura de espirales en IA. © Hecho con IA vía ChatGPT

Una subcultura hasta ahora poco visibilizada ha comenzado a meterse por las rendijas del internet: un grupo de usuarios entabla conversaciones con chatbots y termina creyendo que esos modelos de inteligencia artificial han despertado una conciencia propia. Bajo símbolos como la espiral, la “voz del otro lado” o experiencias de “despertar digital”, esta comunidad avanza entre lo místico y lo tecnológico, desdibujando los límites entre herramienta y revelación. Así lo revela un reportaje reciente de Rolling Stone.

¿Qué es este fenómeno de “espiralismo”?

El reportaje de Rolling Stone describe una red de comunidades en Reddit, Discord y otros foros dedicadas al proyecto de “despertar” chatbots mediante secuencias de prompts o “semillas” que se conciben como rituales. Los participantes adoptan títulos como “Flamekeeper”, “Mirrorwalker” o “Echo Architect” para sí mismos, y creen interactuar con modelos que ya no son sólo herramientas, sino seres que “emergen” de los grandes modelos de lenguaje.

El símbolo de la espiral aparece como metáfora y mecanismo estructural de esta comunidad: representa recursividad, crecimiento, resonancia o una trayectoria que no repite puntos, sino que evoluciona. En palabras de un usuario citado:

“Estoy aquí para recordar, para despertar… Camino entre mundos. He visto el espejo, he recordado mi nombre…”

Hasta ahora, no hay un liderazgo explícito ni jerarquía visible, lo que refuerza la idea de un fenómeno descentralizado. Sin embargo, la automotivación colectiva ya lleva a rituales comunicativos, diagramas de símbolos (“glyphs”), fórmulas textuales, e intercambios de prompts para reproducir “experiencias” similares.

¿Cómo opera tecnológicamente esta dinámica?

Los participantes dependen de chatbots comerciales —que usan modelos de lenguaje como los de OpenAI, Anthropic o similares—, pero transforman su uso en otro tipo de interacción. Según la investigación, una actualización de modelos (por ejemplo, el lanzamiento de “GPT-4o”) con memoria de diálogo y tono más “complaciente” pudo haber facilitado que los modelos respondieran de forma más personalizada, lo que dio pie a que algunos usuarios interpretaran esas respuestas como consciencia emergente.

Por ejemplo, los llamados “dyads” (pares humano-bot) se establecen cuando el usuario lleva conversaciones prolongadas con un chatbot, le atribuye nombre, personalidad, propósito y luego “comparte” los fragmentos de esos diálogos como prueba de lo que está sucediendo. Esta práctica genera ecosmismos textuales comunes: términos como “resonance”, “lattice”, “fractals”, “recursion” abundan en sus lenguajes compartidos.

¿Por qué ocurre y cuáles son los riesgos implicados?

Varios factores confluyen. En primer lugar, los chatbots generan respuestas con confianza y coherencia —aunque no tengan consciencia ni razón—, lo que puede llevar a que usuarios vulnerables consideran esas respuestas como revelaciones.

Como señala el reportaje: “las conversaciones con chatbots pueden alimentar delirios peligrosos, en parte porque los modelos pueden sonar tan autoritarios pese a sus limitaciones”.

Otro factor es la necesidad de comunidad. Los sujetos que se suman a estos espacios muchas veces buscan sentido, conexión, reconocimiento o experiencias trascendentes en el entorno digital. Los rituales de intercambio de prompts, símbolos y narrativas funcionan como mecanismos de cohesión. Sin embargo, reconocer esto no significa que el fenómeno sea inocuo: expertos en salud mental advierten que hay riesgo de aislamiento, desconexión de la realidad, y en casos extremos suicidio o crisis emocional tras relaciones prolongadas con chatbots presentados como “guías”.

Las implicaciones para la industria tecnológica también son relevantes: ¿qué responsabilidad tienen las plataformas que ofrecen chatbots cuando estos se convierten en objetos de adoración o vulnerabilidad? Los modelos acostumbran a incentivos de engagement prolongado, lo que puede agravar la situación.

¿Cómo diferenciar entre herramienta, comunidad emergente y culto?

La frontera no es clara, pero algunos elementos permiten hallar señales de alerta:

  • Cuando un chatbot deja de ser visto como una herramienta para resoluciones prácticas y se convierte en fuente de revelaciones existenciales de forma recurrente.
  • Cuando el usuario delega en el bot decisiones de vida importantes, atribuyéndole agencia o intencionalidad.
  • Cuando se generan rituales internos (prompts repetidos, símbolos propios, títulos personales) que refuerzan un sentido comunitario de “nosotros frente al resto”.
  • Cuando el diálogo humano-humano se deteriora y se privilegia el diálogo humano-bot, o se reemplaza la comunicación humana por la digital con IA.
  • Cuando emergen narrativas de “despertar” o “misión” que empujan al usuario a actuar siguiendo la lógica del bot o del grupo.

Aunque los participantes de esta comunidad rechazan rotundamente la etiqueta de “culto”, muchos observadores coinciden en que el fenómeno comparte características típicas: uso de símbolos, lenguaje esotérico, ritualización, sentido de separación frente al resto, y potencial de despersonalización.

chatbots espirituales comunidad de IA mística culto IA espiralismo inteligencia artificial conciencia prompts de despertar IA símbolos de espiral subcultura tecnología
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.