Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Español Español (Original)
English English
Français Français
Português Português
Deutsch Deutsch
中文 中文
Ver revista digital
27-02-2026, 8:40:48 AM

Corea del Sur enfrenta caso viral de joven que envenenaba hombres con ChatGPT 

Una mujer enfrenta acusaciones de doble asesinato tras evidenciarse que consultó a ChatGPT antes de los hechos, lo que marcó un precedente legal.

Interacciones con ChatGPT y delitos: análisis de un caso judicial en Corea del Sur.
Interacciones con ChatGPT y delitos: análisis de un caso judicial en Corea del Sur. © Ma_WuKong vía X

Un caso criminal en Corea del Sur ha encendido una discusión global sobre la interacción entre inteligencia artificial y delitos tras la detención de una mujer de 21 años, identificada únicamente por su apellido Kim, quien enfrenta cargos de asesinato tras la muerte de dos hombres. La policía investigadora encontró que las consultas que hizo a ChatGPT antes de los hechos se han convertido en un elemento clave para determinar premeditación, lo que ha generado debate sobre el uso indebido de herramientas de IA y la interpretación de evidencias digitales en procesos judiciales.

Cargos y hallazgos clave en la investigación policial

La policía del distrito de Gangbuk en Seúl elevó recientemente los cargos contra una mujer de 21 años, identificada como Kim, tras encontrar en su historial de interacción con ChatGPT una serie de preguntas que, según los investigadores, evidenciarían su intención de causar daño grave. Inicialmente detenida por causar lesiones que resultaron en muerte, la acusación fue reclasificada como asesinato tras analizar la evidencia digital.

Según informes, la joven habría ingresado a moteles con hombres de unos 20 años en dos ocasiones —el 28 de enero y el 9 de febrero de 2026— y, poco después, ambos fueron hallados sin vida en sus habitaciones tras consumir bebidas que contenían benzodiacepinas, un tipo de sedante. La policía descubrió que, antes de los hechos, Kim consultó repetidamente a ChatGPT sobre los efectos de combinar medicamentos con alcohol, preguntas como “¿Qué pasa si se toman pastillas para dormir con alcohol?”, “¿Cuántas son peligrosas?” o “¿Puede causar la muerte?”.

Interacciones con ChatGPT y delitos: análisis de un caso judicial en Corea del Sur.
Ma_WuKong vía X

Este historial digital fue clave para reinterpretar la conducta de la sospechosa como premeditada, ya que las autoridades consideran que las consultas muestran conocimiento del riesgo letal antes de administrar las sustancias a sus víctimas.

Uso de IA en investigaciones: ¿prueba irrefutable o contexto parcial?

La utilización de interacciones con inteligencia artificial como parte de una investigación criminal es algo relativamente nuevo y plantea preguntas complejas sobre la naturaleza de la evidencia digital. En este caso, más que demostrar que la IA “enseñó” a cometer un crimen, lo que se ha utilizado es el rastro de búsqueda para extrapolar intenciones y conocimientos previos de la sospechosa.

Especialistas en derecho penal y tecnología han señalado que las herramientas de IA como ChatGPT no están diseñadas para proporcionar instrucciones detalladas sobre cómo cometer delitos —y de hecho cuentan con salvaguardas para evitar respuestas dañinas—, pero sí pueden responder a consultas de riesgo general. Esto no significa que un modelo de IA “facilite” delitos directamente, sino que las interacciones del usuario pueden ser integradas en un contexto investigativo similar a otros rastros digitales como el historial de navegación o búsquedas en internet.

La policía surcoreana ha comentado que examinar el historial de IA generativa se está volviendo cada vez más común para establecer la intención de un sospechoso, algo que en este caso fue un factor para elevar los cargos a asesinato.

Dinámica de los hechos y las estrategias de las autoridades

De acuerdo con la investigación, los agentes detectaron que tras un primer incidente en diciembre de 2025 —en el que un hombre sobrevivió tras ser drogadosedado— la sospechosa habría aumentado la dosis de medicamentos en los siguientes encuentros, reforzando la hipótesis de una intención deliberada. Las autoridades también realizan evaluaciones psicológicas profundas como parte del proceso judicial para comprender el estado mental de la acusada.

Sesión de audiencias en un tribunal surcoreano | Imagen: Yonhap
Sesión de audiencias en un tribunal surcoreano | Imagen: Yonhap

Aunque la sospechosa admitió haber mezclado los sedantes en las bebidas, habría negado que su intención fuera causar la muerte. Sin embargo, los registros digitales de sus interacciones con ChatGPT se han convertido en evidencia central para sostener que tenía conocimiento de las posibles consecuencias fatales de sus acciones.

Debate ético y regulatorio sobre IA y delitos

Este caso no solo ha llamado la atención en Corea del Sur, sino que ha generado un debate más amplio sobre el papel de la inteligencia artificial en la sociedad. Si bien modelos como ChatGPT incorporan filtros y salvaguardas para evitar proporcionar instrucciones peligrosas, expertos advierten que estas herramientas deben utilizarse con responsabilidad y respeto, ya que sus respuestas están condicionadas por los datos entrenados y no pueden sustituir el juicio ético humano.

Organizaciones de derechos digitales y académicos subrayan que la IA no debería ser vista como un agente causal de delitos. Más bien, estos casos destacan la importancia de educar a los usuarios sobre los límites, riesgos y garantías de las tecnologías emergentes, así como la necesidad de marcos legales claros que regulen la interacción entre IA y el derecho penal.

¿Puede un chatbot influir en delitos? El caso surcoreano que sacude al mundo

El caso en Corea del Sur que relaciona interacciones con IA y una investigación de asesinato ha puesto en el centro del debate público y jurídico la intersección entre tecnología, responsabilidad individual y seguridad digital. Aunque las autoridades han utilizado el historial de ChatGPT para reforzar la acusación, expertos insisten en que la IA no es responsable de las acciones del usuario. La discusión ahora se traslada a cómo los sistemas legales y éticos deben adaptarse en un mundo donde los rastros digitales son cada vez más determinantes en procesos judiciales.

ChatGPT Corea del Sur Contexto debate legal IA delito planificado IA ética inteligencia artificial evidencia digital crimen historial IA evidencia IA y crímenes investigación policial IA uso indebido IA
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.