
Un caso criminal en Corea del Sur ha encendido una discusión global sobre la interacción entre inteligencia artificial y delitos tras la detención de una mujer de 21 años, identificada únicamente por su apellido Kim, quien enfrenta cargos de asesinato tras la muerte de dos hombres. La policía investigadora encontró que las consultas que hizo a ChatGPT antes de los hechos se han convertido en un elemento clave para determinar premeditación, lo que ha generado debate sobre el uso indebido de herramientas de IA y la interpretación de evidencias digitales en procesos judiciales.
La policía del distrito de Gangbuk en Seúl elevó recientemente los cargos contra una mujer de 21 años, identificada como Kim, tras encontrar en su historial de interacción con ChatGPT una serie de preguntas que, según los investigadores, evidenciarían su intención de causar daño grave. Inicialmente detenida por causar lesiones que resultaron en muerte, la acusación fue reclasificada como asesinato tras analizar la evidencia digital.
Según informes, la joven habría ingresado a moteles con hombres de unos 20 años en dos ocasiones —el 28 de enero y el 9 de febrero de 2026— y, poco después, ambos fueron hallados sin vida en sus habitaciones tras consumir bebidas que contenían benzodiacepinas, un tipo de sedante. La policía descubrió que, antes de los hechos, Kim consultó repetidamente a ChatGPT sobre los efectos de combinar medicamentos con alcohol, preguntas como “¿Qué pasa si se toman pastillas para dormir con alcohol?”, “¿Cuántas son peligrosas?” o “¿Puede causar la muerte?”.
Este historial digital fue clave para reinterpretar la conducta de la sospechosa como premeditada, ya que las autoridades consideran que las consultas muestran conocimiento del riesgo letal antes de administrar las sustancias a sus víctimas.
La utilización de interacciones con inteligencia artificial como parte de una investigación criminal es algo relativamente nuevo y plantea preguntas complejas sobre la naturaleza de la evidencia digital. En este caso, más que demostrar que la IA “enseñó” a cometer un crimen, lo que se ha utilizado es el rastro de búsqueda para extrapolar intenciones y conocimientos previos de la sospechosa.
Especialistas en derecho penal y tecnología han señalado que las herramientas de IA como ChatGPT no están diseñadas para proporcionar instrucciones detalladas sobre cómo cometer delitos —y de hecho cuentan con salvaguardas para evitar respuestas dañinas—, pero sí pueden responder a consultas de riesgo general. Esto no significa que un modelo de IA “facilite” delitos directamente, sino que las interacciones del usuario pueden ser integradas en un contexto investigativo similar a otros rastros digitales como el historial de navegación o búsquedas en internet.
La policía surcoreana ha comentado que examinar el historial de IA generativa se está volviendo cada vez más común para establecer la intención de un sospechoso, algo que en este caso fue un factor para elevar los cargos a asesinato.
De acuerdo con la investigación, los agentes detectaron que tras un primer incidente en diciembre de 2025 —en el que un hombre sobrevivió tras ser drogadosedado— la sospechosa habría aumentado la dosis de medicamentos en los siguientes encuentros, reforzando la hipótesis de una intención deliberada. Las autoridades también realizan evaluaciones psicológicas profundas como parte del proceso judicial para comprender el estado mental de la acusada.
Aunque la sospechosa admitió haber mezclado los sedantes en las bebidas, habría negado que su intención fuera causar la muerte. Sin embargo, los registros digitales de sus interacciones con ChatGPT se han convertido en evidencia central para sostener que tenía conocimiento de las posibles consecuencias fatales de sus acciones.
Este caso no solo ha llamado la atención en Corea del Sur, sino que ha generado un debate más amplio sobre el papel de la inteligencia artificial en la sociedad. Si bien modelos como ChatGPT incorporan filtros y salvaguardas para evitar proporcionar instrucciones peligrosas, expertos advierten que estas herramientas deben utilizarse con responsabilidad y respeto, ya que sus respuestas están condicionadas por los datos entrenados y no pueden sustituir el juicio ético humano.
Organizaciones de derechos digitales y académicos subrayan que la IA no debería ser vista como un agente causal de delitos. Más bien, estos casos destacan la importancia de educar a los usuarios sobre los límites, riesgos y garantías de las tecnologías emergentes, así como la necesidad de marcos legales claros que regulen la interacción entre IA y el derecho penal.
El caso en Corea del Sur que relaciona interacciones con IA y una investigación de asesinato ha puesto en el centro del debate público y jurídico la intersección entre tecnología, responsabilidad individual y seguridad digital. Aunque las autoridades han utilizado el historial de ChatGPT para reforzar la acusación, expertos insisten en que la IA no es responsable de las acciones del usuario. La discusión ahora se traslada a cómo los sistemas legales y éticos deben adaptarse en un mundo donde los rastros digitales son cada vez más determinantes en procesos judiciales.


