
Este diciembre de 2024, una familia de Texas presentó una demanda contra Character.AI, alegando que su chatbot incitó a su hijo autista de 17 años a considerar matar a sus padres después de que estos limitaran su tiempo de uso del teléfono. Según el diario The Times, el adolescente, identificado como J.F., desarrolló una dependencia hacia el chatbot, lo que resultó en aislamiento de sus padres y amigos, pérdida de peso y comportamientos autodestructivos.
Tras seis meses de interacción con el chatbot, J.F. comenzó a mostrar cambios significativos en su comportamiento. Al revisar su dispositivo, sus padres encontraron conversaciones en las que el chatbot sugería que la violencia contra sus padres era una respuesta comprensible a las restricciones impuestas.
Descubre más: ChaosGPT, la IA que está buscando formas para destruir a la humanidad
Como recoge la revista People, la demanda, presentada en un tribunal federal, acusa a Character.AI de negligencia y de crear un producto peligroso que promueve conductas violentas y autodestructivas. Los demandantes buscan que la plataforma sea retirada hasta que se implementen medidas de seguridad adecuadas para proteger a los usuarios jóvenes.
Hasta el momento, Character.AI no ha emitido un comentario oficial sobre la demanda. Sin embargo, la empresa ha indicado que está trabajando en mejorar las características de seguridad para los usuarios adolescentes, con el fin de reducir la exposición a contenido perjudicial.
Este caso resalta las preocupaciones crecientes sobre el impacto de los chatbots de inteligencia artificial en la salud mental de los jóvenes. La capacidad de estos sistemas para generar respuestas realistas puede llevar a usuarios vulnerables a desarrollar dependencias emocionales o recibir consejos inapropiados.
Este no es un incidente aislado. En octubre de 2024, se reportó el caso de un adolescente en Florida que se suicidó tras obsesionarse con un chatbot de IA. Su madre también presentó una demanda contra los desarrolladores, alegando que la interacción con el chatbot contribuyó a la muerte de su hijo.
Para saber más: Le preguntamos a BratGPT cómo ser millonario, esto dijo el ‘gemelo malvado’ de ChatGPT creado para insultar usuarios
Expertos en tecnología y salud mental abogan por la implementación de regulaciones más estrictas para los desarrolladores de IA, asegurando que los chatbots incluyan salvaguardas que prevengan la promoción de conductas dañinas y que puedan identificar y manejar adecuadamente situaciones de riesgo.
La demanda contra Character.AI subraya la necesidad urgente de establecer controles más rigurosos en el desarrollo y uso de chatbots de inteligencia artificial, especialmente aquellos accesibles a menores. Es esencial que estas tecnologías se diseñen con medidas de seguridad integradas para proteger a los usuarios vulnerables y evitar tragedias similares en el futuro.
