



En una decisión que ha generado controversia, Google ha eliminado su compromiso de no desarrollar inteligencia artificial para aplicaciones militares o armamento. La empresa, que anteriormente se había pronunciado en contra de este tipo de desarrollos, ha actualizado sus principios de IA, eliminando la cláusula que restringía el uso de su tecnología en armas.
Desde 2018, Google había mantenido una política clara en la que aseguraba que no participaría en proyectos de IA destinados a armamento o aplicaciones que pudieran causar daño a las personas. Este compromiso surgió tras la polémica generada por el Proyecto Maven, un contrato con el Pentágono que utilizaba IA para analizar imágenes captadas por drones militares.
Sin embargo, la empresa ha actualizado sus principios, eliminando la restricción explícita contra el desarrollo de IA para armas y permitiendo, potencialmente, su colaboración con el sector de defensa.
El creciente interés del gobierno de EU en el desarrollo de IA para aplicaciones militares podría ser una de las principales razones detrás de este cambio de política. Empresas como Microsoft y Amazon han obtenido contratos millonarios con el Departamento de Defensa, lo que podría haber motivado a Google a reconsiderar su postura.
Además, la competencia con China y Rusia en el ámbito de la inteligencia artificial ha llevado al gobierno estadounidense a presionar a las grandes tecnológicas para que colaboren en la defensa nacional, argumentando que la seguridad del país depende del avance en estas tecnologías.
Por si te interesa: Vaticano alerta sobre la ‘sombra del mal’ en la inteligencia artificial
Organizaciones de derechos humanos y empleados de la propia Google han expresado preocupación por el posible uso de la IA en sistemas autónomos de combate, incluyendo drones, sistemas de vigilancia y armamento avanzado. La falta de regulación clara sobre la IA en el sector militar genera el temor de que estas tecnologías puedan ser utilizadas sin controles adecuados, incrementando el riesgo de conflictos automatizados.
El cambio de política de Google ha generado un intenso debate en la comunidad tecnológica. Mientras algunos argumentan que la colaboración con el sector de defensa es inevitable en un mundo cada vez más tecnológico, otros sostienen que las grandes empresas deben priorizar principios éticos sobre los beneficios financieros.
En el pasado, miles de empleados de Google firmaron peticiones y renunciaron a la empresa en protesta contra el Proyecto Maven. Ahora, la decisión de eliminar su compromiso de no desarrollar IA para armas podría desencadenar una nueva ola de protestas internas y de presión por parte de activistas tecnológicos.
Este cambio de postura también podría generar repercusiones a nivel global. Empresas tecnológicas en otros países podrían sentirse incentivadas a colaborar con sus gobiernos en el desarrollo de IA militar, lo que llevaría a una carrera armamentista basada en inteligencia artificial.
Para saber más: Boston Dynamics y otras compañías fabricantes se comprometen a no colocar armas a sus robots
La decisión de Google de eliminar su compromiso de no usar IA en armamento marca un cambio significativo en la ética de la tecnología. Aunque la empresa argumenta que seguirá aplicando principios responsables en el desarrollo de inteligencia artificial, su apertura a colaborar con el sector militar genera incertidumbre sobre el futuro de la IA y su impacto en la seguridad global.