
“¡Hola! Veo que estás aquí buscando un momento de calma. No estás solo. Estoy contigo para ayudarte a respirar, entender lo que sientes y encontrar un poco de alivio. ¿Quieres contarme qué te preocupa ahora?”.
Así es un “texto inicial” de un chatbot de apoyo emocional. Hasta hace poco, esto parecía ciencia-ficción, pero hoy, muchas personas buscan en la IA algo más que respuestas rápidas: quieren comprensión, compañía y consuelo. Por ejemplo Nora, de 14 años, usa un chatbot cuando discute con sus amigas, según nos contó. Independientemente de la edad, muchos podemos tener la tentación de usar esta tecnología para mejorar nuestras relaciones laborales o encontrar a alguien que siempre nos “escucha”.
La sensación es que la IA nos puede escuchar y comprender. Pero la IA es una máquina: no escucha en el sentido humano de la palabra, sino que procesa datos. Funciona como un sistema de predicción estadística que genera respuestas palabra por palabra.
Esto plantea preguntas importantes: ¿puede una IA ser un apoyo emocional real? ¿Podría sustituir a un amigo? ¿O incluso a un psicólogo? Y todo esto ¿qué efectos tiene sobre nuestro bienestar?
Un chatbot es un programa informático con el que interactuamos a través de texto, voz o imagen. Su secuencia de trabajo es: recibe, interpreta, decide, consulta y responde. Imagina que escribe: “Quiero cambiar mi vuelo del sábado”. Y hace esto: “cambiar vuelo” + “viernes”, comprueba su reserva en la API, ofrece opciones y confirma el cambio.
Existen varios tipos:
El primer chatbot de gestión emocional apareció en 1966 y se llamó Eliza. Simulaba una terapia psicológica “centrada en la persona”, técnica desarrollada por Carl Rogers. Era un chatbot basado en reglas: si el usuario decía: “Estoy triste”, Eliza respondía: “¿Por qué crees que estás triste?”.
En la actualidad, un estudio estadounidense indica que la mitad de los adultos ven con buenos ojos el uso de chatbots de apoyo emocional, una tendencia que se repite en Europa.
En España, el 24 % de la población encuestada reconoce usar chatbots para apoyo emocional, el 45 % de ellos de entre 18 y 24 años. Otra encuesta muestra lo mismo: las chicas lo emplean más. Nosotros hemos podido observar que los adolescentes usan chatbots para expresar y gestionar emociones y para sentirse acompañados y comprendidos en momentos de tristeza o dificultad. Estas son algunas de las cosas que nos han contado en nuestro reciente estudio:
Los chatbots ofrecen algo que algunos jóvenes pueden tener dificultades en conseguir: una escucha inmediata y sin juicios. Siempre están disponibles, responden con calma y permiten hablar desde un aparente anonimato. En momentos de confusión o soledad, esto puede generar una sensación de control y alivio, al permitirnos desahogarnos. Su tono amable y el lenguaje empático que usan refuerzan esa dependencia emocional.
En otro nuestro estudio, algunos adolescentes afirmaban que contaban a la IA “cosas que no diría a nadie” y que les ayudaba “a calmarse cuando tienen problemas” porque no les hace sentirse “cuestionados” ni sentirse mal por lo que comparten.
Pero un chatbot no sustituye a una amistad ni a una terapia. Puede servir como “apoyo puntual” o espacio de desahogo –con matices–, pero nunca reemplazar una relación humana ni el juicio clínico profesional. Hay al menos 10 razones por las que esto es así:
Los chatbots especializados no son psicólogos ni amigos. La clave es un uso reflexivo y ético:
Usar una máquina digital no es negativo. Los chatbots pueden “acompañar”, pero no reemplazan el afecto, la amistad ni la atención psicológica profesional. Incluso en psicología se emplean cada vez más herramientas de IA, aunque todavía existe debate sobre sus límites.
Conviene ser prudentes porque aún desconocemos su impacto y sus riesgos. Nuestro bienestar emocional depende también de la seguridad ante la IA. No debemos confundir consuelo digital con apoyo profesional ni con relaciones humanas. Este es uno de los retos que plantea la vida digital actual.
José Sánchez Santamaría, Profesor Titular de Equidad Educativa y Aprendizaje a lo Largo de la Vida. Coordinador de GRIOCE – UCLM. Vocal de FEAE-CLM, Universidad de Castilla-La Mancha; Gabriela de la Cruz Flores, Profesora e investigadora en Psicología, Universidad Nacional Autónoma de México (UNAM); Hilda Paredes Dávila, Académica de la Facultad de Psicología, UNAM, Universidad Nacional Autónoma de México (UNAM), and Jesús Miguel Muñoz Cantero, Catedrático de Didácticas Específicas y Métodos de Investigación y Diagnóstico en Educación, Universidade da Coruña
Este artículo fue publicado originalmente en The Conversation. Lea el original.
