Google pacta uso de IA con el Pentágono pese a rechazo interno
El diario The Wall Street Journal reveló que Google acordó permitir que el Pentágono utilice sus herramientas de inteligencia artificial en operaciones, incluso en entornos clasificados, lo que ha generado una fuerte reacción interna entre sus empleados.
De acuerdo con reportes coincidentes, el convenio autoriza al gobierno estadounidense a emplear los modelos de IA de la compañía para “cualquier propósito legal”, incluidos trabajos sensibles como planeación militar o análisis estratégico . Sin embargo, el contrato incluye restricciones que señalan que la tecnología no debe utilizarse para vigilancia masiva doméstica ni para armas autónomas sin supervisión humana .
A pesar de estas cláusulas, la polémica creció dentro de la empresa. Más de 600 trabajadores enviaron una carta al director ejecutivo Sundar Pichai en la que rechazan el acuerdo y advierten sobre posibles usos “inhumanos o extremadamente dañinos” de la inteligencia artificial .
Los empleados expresaron preocupación por la falta de control sobre el uso de la tecnología en contextos clasificados, donde —señalan— es imposible supervisar cómo se implementa . También alertaron sobre riesgos como vigilancia masiva o el desarrollo de sistemas letales automatizados.
El acuerdo coloca a Google en línea con otras empresas del sector como OpenAI y Anthropic, que también han tenido acercamientos o contratos con el Pentágono en el desarrollo de tecnologías de IA para fines militares .
El contexto recuerda el precedente de 2018, cuando Google abandonó el llamado Proyecto Maven tras protestas internas por el uso de su tecnología en análisis de imágenes para drones militares, lo que evidencia que el debate ético sobre el papel de la IA en la guerra sigue abierto dentro de la industria tecnológica.
Aunque la empresa sostiene que su participación busca apoyar la seguridad nacional bajo principios de uso responsable, el episodio exhibe una creciente tensión entre los intereses estratégicos de los gobiernos y las preocupaciones éticas de quienes desarrollan estas tecnologías.




