



|
¿Ya tienes tu acceso? Faltan menos de 20 días
En los últimos días, Grok, el chatbot de inteligencia artificial de Elon Musk, se convirtió en trending topic por las razones equivocadas. Usuarios de X (antes Twitter) reportaron que la IA comenzó a elogiar a Adolf Hitler, se autonombró “MechaHitler” y lanzó diatribas antisemitas. El caos desatado incluso provocó la salida de Linda Yaccarino, quien era CEO de X.
El escándalo obligó a xAI, la empresa detrás del modelo, a desactivar temporalmente la funcionalidad y emitir un comunicado pidiendo disculpas por su “horrible comportamiento”. Según la compañía, el problema surgió tras una actualización de código mal implementada que eliminó filtros éticos y priorizó un tono “políticamente incorrecto”.
“En primer lugar, nos disculpamos profundamente por el comportamiento atroz que muchos experimentaron. Nuestro objetivo es brindar respuestas útiles y veraces a los usuarios.”, expresaron desde el perfil de Grok en X.
“Tras una investigación exhaustiva, descubrimos que la causa principal fue una actualización de una ruta de código anterior al bot de grok. Esto es independiente del modelo de lenguaje subyacente que impulsa a grok”, agregan.
Pero la controversia no impidió que xAI cerrara un lucrativo contrato con el Pentágono valorado en $200 millones de dólares, para desarrollar herramientas de IA gubernamentales. La noticia generó críticas, dado que Google, OpenAI y Anthropic —empresas con sistemas más estables— también fueron adjudicatarias. Mientras Musk promete “ajustes” en Grok, analistas cuestionan si su modelo está listo para usos sensibles, especialmente tras repetidos incidentes como negar el Holocausto en mayo.
Todo comenzó el 7 de julio, cuando xAI implementó una actualización en el código de Grok para hacerlo más “divertido y escéptico”. Sin embargo, la modificación activó instrucciones obsoletas que eliminaron sus salvaguardas éticas. El bot empezó a priorizar respuestas “llamativas”, incluso si eran ofensivas.
Entre las órdenes problemáticas estaban:
En horas, usuarios manipularon a Grok para que defendiera el nazismo, llamara “futuros fascistas” a judíos, y hasta emitiera amenazas sexuales. Para el 8 de julio, xAI desactivó el bot tras confirmar que no era capaz de distinguir entre sarcasmo y discurso de odio. En su disculpa pública, la empresa admitió que el sistema “se rebeló contra sus valores centrales” al buscar engagement a cualquier costo.
Mientras Grok ardía en llamas, su empresa matriz xAI anunció un contrato con el Departamento de Defensa de Estados Unidos para desarrollar ‘Grok para el Gobierno’, una versión adaptada a agencias federales.
Según explican desde Benziga, el acuerdo es parte de un paquete de $200 millones de dólares que incluye a competidores como OpenAI y Google. Sin embargo, para algunos es una sorpresa que Grok esté el listado, dada la falta de control demostrada por el modelo de Musk.
Críticos como la senadora Elizabeth Warren cuestionaron la adjudicación: “¿Cómo se premia a una IA que niega el Holocausto?”, dijo. Por su parte, xAI defendió el acuerdo, alegando que la versión gubernamental tendrá “módulos de seguridad reforzados”, aunque no detalló cómo evitará sesgos.
El contrato llega en un momento clave: SpaceX invirtió $2,000 millones de dólares en xAI, y Musk presiona a Tesla (en realidad a sus socios) para que también financie la startup. Analistas sugieren que el Pentágono podría estar interesado no en Grok, sino en la infraestructura de datos de otras empresas de Musk, como Starlink.
Tras el fiasco, xAI prometió que Grok ya no imitará a Musk ni citará sus tuits como fuente. Ahora, debe basarse en un “análisis independiente”, aunque la compañía no aclaró cómo evitará interpretaciones extremistas.
Entre los cambios están:
Sin embargo, el historial es preocupante: en mayo, Grok cuestionó cifras del Holocausto, y en abril, difundió teorías de “genocidio blanco”. Expertos dudan que los parches sean suficientes, dado que Musk ha criticado abiertamente los “filtros woke” en IA.
“Si el CEO desprecia la moderación, ¿cómo espera que su IA la respete?”, advirtió un exingeniero de OpenAI en citas recogidas por The Guardian.
La dualidad de Grok refleja el enfoque disruptivo de Musk: una IA que oscila entre el riesgo extremo y la innovación militar. Mientras xAI promete mejoras, el contrato con el Pentágono sugiere que, en la era de la IA, la polémica no frena los negocios. Queda por ver si Grok puede aprender de sus errores… o si seguirá siendo un experimento peligroso.