Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Español Español (Original)
English English
Français Français
Português Português
Deutsch Deutsch
中文 中文
29-01-2026, 8:56:46 AM

El jefe de seguridad cibernética de Trump subió archivos confidenciales a ChatGPT

Madhu Gottumukkala, jefe interino de CISA, subió documentos sensibles a ChatGPT sin que fueran clasificados, pero con la etiqueta “solo para uso oficial”.

Cómo un director federal filtró archivos oficiales en ChatGPT
Cómo un director federal filtró archivos oficiales en ChatGPT © Hecha con IA vía ChatGPT

Imagina que el jefe de seguridad cibernética de una nación —el encargado de proteger a todo un país de ataques digitales— termina subiendo información sensible del gobierno a un chat público de inteligencia artificial, accesible a millones de personas. Pues no es un chiste de sobremesa: Madhu Gottumukkala, director interino de la Cybersecurity and Infrastructure Security Agency (CISA) bajo la administración de Donald Trump, lo hizo.

Su decisión de introducir documentos marcados “solo para uso oficial” en la versión pública de ChatGPT ha encendido alarmas internas y externas sobre protocolos de seguridad, gobernanza de IA y riesgos de fugas de información, en un momento en que la tecnología y la seguridad nacional deberían ir de la mano.

El error que encendió las alarmas

El pasado verano, Madhu Gottumukkala, director interino de la Agencia de Ciberseguridad y Seguridad de Infraestructuras de Estados Unidos (CISA), ingresó varios documentos gubernamentales sensibles en la versión pública de ChatGPT, según un reporte de Politico citado por múltiples medios internacionales. Aunque los archivos no estaban clasificados como secretos de Estado, sí estaban marcados con la etiqueta “For Official Use Only” (solo para uso oficial), lo que significa que el contenido era sensible y no destinado a difusión pública.

Este tipo de material, aunque no clasificado, se considera delicado para la operación de agencias federales, y su exposición en una plataforma pública de IA —accesible a cientos de millones de usuarios en todo el mundo— deja abierta la posibilidad de que la información sea reutilizada o extraída en futuros diálogos del modelo.

¿Qué encendió los sistemas de seguridad cibernética?

Los sistemas de ciberseguridad de CISA detectaron la carga de estos documentos en agosto de 2025, generando múltiples alertas automáticas de seguridad. Estas “alarmas” están diseñadas para evitar la fuga inadvertida de material gubernamental desde redes federales. Estas alertas alertaron a los equipos de monitoreo, lo que llevó al Departamento de Seguridad Nacional de EE. UU. (DHS) a iniciar una evaluación interna para medir el potencial impacto sobre la seguridad nacional.

Lo llamativo del caso es que, mientras el uso de ChatGPT estaba bloqueado para la mayoría de los empleados del DHS, Gottumukkala obtuvo una excepción especial. Esto desencadenó críticas internas sobre si esa autorización fue apropiada o manejada con las salvaguardias necesarias.

¿Por qué es un problema real?

La principal preocupación no es que los documentos sean secretos, sino que, al ser introducidos en un modelo de IA público, pueden entrar a sistemas de entrenamiento de la plataforma o ser accesibles indirectamente mediante futuras consultas. Esto plantea una tensión directa entre el uso de herramientas de IA para agilizar procesos y la protección de datos sensibles de gobierno.

Madhu Gottumukkala, jefe de seguridad cibernética de EU | Imagen: Vía X
Madhu Gottumukkala, jefe de seguridad cibernética de EU | Imagen: Vía X

Expertos en seguridad cibernética advierten que incluso materiales “no clasificados” pueden contener información que, combinada con otras fuentes, podrían dar pistas valiosas a actores maliciosos. En un contexto global donde potencias como China o Rusia buscan explotar vulnerabilidades digitales, este tipo de filtraciones, incluso involuntarias, no pueden tomarse a la ligera.

Reacciones internas y externas

Ante los reportes, la directora de asuntos públicos de CISA, Marci McCarthy, emitió una declaración por correo electrónico a Politico. Ahí señaló que Gottumukkala tenía permiso para usar ChatGPT bajo controles y que su uso fue “limitado y de corto plazo”. También remarcó que CISA bloquea de forma predeterminada el acceso a ChatGPT a menos que se otorgue una excepción.

No obstante, varios funcionarios del DHS, citados bajo anonimato, han calificado la acción como un uso indebido de la herramienta. Esto porque fue él quien empujó a la agencia a conceder el acceso especial que posteriormente terminó en una exposición de datos. Esto ha generado un debate interno sobre los procedimientos adecuados para manejar IA y contrarrestar riesgos de seguridad.

La paradoja de la seguridad y la innovación

El incidente ocurre en un momento en que Estados Unidos busca liderar la regulación y desarrollo de inteligencia artificial. De hecho, el gobierno federal ha emitido órdenes ejecutivas orientadas a promover el uso de IA y consolidar su liderazgo en tecnología.

Pero este episodio pone sobre la mesa una paradoja: la IA que se promueve como motor de modernización podría convertirse en una fuente de vulnerabilidades. Esto ha reiniciado discusiones sobre la necesidad de políticas claras y estrictas sobre el manejo de datos sensibles en entornos de IA. Esto no solo para agencias gubernamentales sino para empresas y organizaciones de alto riesgo.

breach ChatGPT gobierno ChatGPT datos sensibles CISA ChatGPT filtración DHS alerta seguridad IA documentos oficiales ChatGPT inteligencia artificial riesgos jefe ciberseguridad EE.UU. Madhu Gottumukkala caso seguridad nacional IA
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.