Pentágono acuerda ampliar uso de IA de Google en operaciones secretas

El Pentágono llegó a un acuerdo para aumentar el uso de la inteligencia artificial de Google en operaciones clasificadas, informaron el martes varios medios de comunicación estadounidenses.
La noticia llega cuando las fuerzas armadas de Estados Unidos buscan dejar de depender de la IA de Anthropic ante la negativa de la empresa a que sus modelos sirvan para vigilancia masiva en el país o en operaciones de armas militares letales autónomas.
Google no respondió de inmediato a una solicitud de comentarios de la AFP.
En febrero, Trump instruyó a su gobierno para cesar el uso de la tecnología de Anthropic luego de que el jefe del Pentágono, Pete Hegseth, designara a la empresa como un “riesgo” para la cadena de suministro de seguridad nacional, una designación que normalmente recae en organizaciones de países rivales.
Anthropic llevó el caso ante la justicia.
Conflicto por IA: Jueza bloquea medidas de Trump contra Anthropic
Tras la crisis de Anthropic, su rival OpenAI llegó a un acuerdo con el gobierno para integrar sus interfaces de IA para su uso en dicho contexto operativo.
Los acuerdos del Pentágono con los proveedores de tecnología incluyen únicamente el uso de herramientas de IA en formas permitidas por la ley, según los reportes.
En 2018, luego de presiones de sus propios empleados, Google abandonó el Proyecto Maven, un programa del Pentágono destinado a integrar IA en operaciones con drones.
Pero en los últimos años, Google ha emprendido un cambio de estrategia, reconstruyendo su negocio militar y compitiendo por contratos de computación en la nube para la defensa.
La carrera militar por la IA
El acuerdo con Google refleja la creciente competencia entre las grandes tecnológicas por convertirse en proveedoras estratégicas del Departamento de Defensa de Estados Unidos.
En los últimos años, el Pentágono ha multiplicado contratos de nube, análisis de datos e inteligencia artificial con empresas como Microsoft, Amazon, OpenAI y Palantir, bajo la premisa de modernizar sus capacidades frente al avance tecnológico de China y Rusia.
La IA es vista por Washington como un factor decisivo en inteligencia, logística, ciberdefensa y toma de decisiones militares.
La relación entre Google y el Pentágono ha sido especialmente sensible desde 2018, cuando miles de empleados protestaron contra el Proyecto Maven, una iniciativa militar para usar IA en el análisis de imágenes captadas por drones. Las presiones internas llevaron entonces a la compañía a retirarse del programa y a publicar principios éticos sobre inteligencia artificial.
Sin embargo, desde 2022 Google cambió gradualmente su postura y retomó la búsqueda de contratos gubernamentales, argumentando que puede participar bajo marcos legales y controles de uso responsables.
El nuevo movimiento también muestra la tensión entre innovación tecnológica y límites éticos en el sector defensa. Empresas como Anthropic han marcado distancia respecto al uso de sus modelos para vigilancia masiva o sistemas letales autónomos, mientras otras compañías aceptan colaborar en áreas más amplias de seguridad nacional.
Casa Blanca prohíbe el uso de IA de Anthropic a agencias militares
Analistas señalan que el debate sobre quién desarrolla la IA militar de Estados Unidos será central en los próximos años, a medida que estas herramientas pasen de apoyo operativo a funciones cada vez más críticas en conflictos reales.
Con información de AFP. © 2025 Imagen – Excélsior. Todos los derechos reservados. El contenido de este sitio y de la edición impresa está protegido por la Ley Federal del Derecho de Autor. Prohibida la reproducción total o parcial sin autorización previa y por escrito. El material de terceros conserva sus propios derechos.



