
Imagina que el jefe de seguridad cibernética de una nación —el encargado de proteger a todo un país de ataques digitales— termina subiendo información sensible del gobierno a un chat público de inteligencia artificial, accesible a millones de personas. Pues no es un chiste de sobremesa: Madhu Gottumukkala, director interino de la Cybersecurity and Infrastructure Security Agency (CISA) bajo la administración de Donald Trump, lo hizo.
Su decisión de introducir documentos marcados “solo para uso oficial” en la versión pública de ChatGPT ha encendido alarmas internas y externas sobre protocolos de seguridad, gobernanza de IA y riesgos de fugas de información, en un momento en que la tecnología y la seguridad nacional deberían ir de la mano.
El pasado verano, Madhu Gottumukkala, director interino de la Agencia de Ciberseguridad y Seguridad de Infraestructuras de Estados Unidos (CISA), ingresó varios documentos gubernamentales sensibles en la versión pública de ChatGPT, según un reporte de Politico citado por múltiples medios internacionales. Aunque los archivos no estaban clasificados como secretos de Estado, sí estaban marcados con la etiqueta “For Official Use Only” (solo para uso oficial), lo que significa que el contenido era sensible y no destinado a difusión pública.
Este tipo de material, aunque no clasificado, se considera delicado para la operación de agencias federales, y su exposición en una plataforma pública de IA —accesible a cientos de millones de usuarios en todo el mundo— deja abierta la posibilidad de que la información sea reutilizada o extraída en futuros diálogos del modelo.
Los sistemas de ciberseguridad de CISA detectaron la carga de estos documentos en agosto de 2025, generando múltiples alertas automáticas de seguridad. Estas “alarmas” están diseñadas para evitar la fuga inadvertida de material gubernamental desde redes federales. Estas alertas alertaron a los equipos de monitoreo, lo que llevó al Departamento de Seguridad Nacional de EE. UU. (DHS) a iniciar una evaluación interna para medir el potencial impacto sobre la seguridad nacional.
Lo llamativo del caso es que, mientras el uso de ChatGPT estaba bloqueado para la mayoría de los empleados del DHS, Gottumukkala obtuvo una excepción especial. Esto desencadenó críticas internas sobre si esa autorización fue apropiada o manejada con las salvaguardias necesarias.
La principal preocupación no es que los documentos sean secretos, sino que, al ser introducidos en un modelo de IA público, pueden entrar a sistemas de entrenamiento de la plataforma o ser accesibles indirectamente mediante futuras consultas. Esto plantea una tensión directa entre el uso de herramientas de IA para agilizar procesos y la protección de datos sensibles de gobierno.
Expertos en seguridad cibernética advierten que incluso materiales “no clasificados” pueden contener información que, combinada con otras fuentes, podrían dar pistas valiosas a actores maliciosos. En un contexto global donde potencias como China o Rusia buscan explotar vulnerabilidades digitales, este tipo de filtraciones, incluso involuntarias, no pueden tomarse a la ligera.
Ante los reportes, la directora de asuntos públicos de CISA, Marci McCarthy, emitió una declaración por correo electrónico a Politico. Ahí señaló que Gottumukkala tenía permiso para usar ChatGPT bajo controles y que su uso fue “limitado y de corto plazo”. También remarcó que CISA bloquea de forma predeterminada el acceso a ChatGPT a menos que se otorgue una excepción.
No obstante, varios funcionarios del DHS, citados bajo anonimato, han calificado la acción como un uso indebido de la herramienta. Esto porque fue él quien empujó a la agencia a conceder el acceso especial que posteriormente terminó en una exposición de datos. Esto ha generado un debate interno sobre los procedimientos adecuados para manejar IA y contrarrestar riesgos de seguridad.
El incidente ocurre en un momento en que Estados Unidos busca liderar la regulación y desarrollo de inteligencia artificial. De hecho, el gobierno federal ha emitido órdenes ejecutivas orientadas a promover el uso de IA y consolidar su liderazgo en tecnología.
Pero este episodio pone sobre la mesa una paradoja: la IA que se promueve como motor de modernización podría convertirse en una fuente de vulnerabilidades. Esto ha reiniciado discusiones sobre la necesidad de políticas claras y estrictas sobre el manejo de datos sensibles en entornos de IA. Esto no solo para agencias gubernamentales sino para empresas y organizaciones de alto riesgo.

