Google se enorgullece de su acuerdo con el Pentágono pese al rechazo de cientos de empleados

Google ha dejado claro internamente que no piensa dar marcha atrás en su colaboración con el ejército de Estados Unidos. La compañía ha comunicado a sus empleados que trabaja “con orgullo” con organismos de defensa y que seguirá haciéndolo, incluso después de que cientos de trabajadores hayan expresado su oposición a un nuevo acuerdo para que su tecnología de inteligencia artificial pueda utilizarse en operaciones clasificadas.
El mensaje llegó a través de un memorando enviado por Kent Walker, presidente de Asuntos Globales de Alphabet, matriz de Google. En él, Walker defendió que la compañía ha colaborado con departamentos de defensa desde sus primeros años y que considera importante apoyar la seguridad nacional “de forma reflexiva y responsable”.
Un acuerdo para usar IA en operaciones clasificadas
La polémica surge después de que Google firmara un acuerdo con el Departamento de Defensa de Estados Unidos que permitirá utilizar su tecnología de inteligencia artificial en operaciones clasificadas. Este nuevo pacto amplía un contrato ya existente de 200 millones de dólares, aproximadamente 171 millones de euros, destinado a proporcionar herramientas de IA al Pentágono.
La compañía sostiene que mantenerse implicada con los gobiernos, también en asuntos de seguridad nacional, es una forma de garantizar que las democracias puedan beneficiarse de tecnologías responsables. Para Google, abandonar este tipo de proyectos no impediría que los gobiernos usen IA, sino que podría dejar el terreno a alternativas menos controladas o menos alineadas con sus principios.
El argumento no ha convencido a parte de la plantilla, especialmente a empleados de DeepMind y otros equipos técnicos que trabajan directamente en el desarrollo de modelos avanzados de IA.
Más de 560 empleados pidieron a Sundar Pichai que frenara el acuerdo
El mismo día en que se firmó el contrato, más de 560 empleados enviaron una carta abierta al CEO de Google, Sundar Pichai, pidiéndole que abandonara las conversaciones con el Departamento de Defensa. Los trabajadores advertían de que la tecnología de la compañía podría acabar empleándose en usos “inhumanos o extremadamente dañinos”.
La preocupación no es nueva dentro de Google. En febrero, varios empleados ya habían pedido a Jeff Dean, científico jefe de DeepMind, que hiciera todo lo posible para impedir cualquier acuerdo que cruzara determinadas líneas rojas. Dean llegó a publicar en X que la vigilancia masiva vulnera la Cuarta Enmienda de Estados Unidos y tiene un efecto disuasorio sobre la libertad de expresión.
El temor de los empleados es que los modelos de IA desarrollados por Google puedan utilizarse en contextos donde el control humano, la supervisión democrática y la transparencia sean insuficientes.
Google reconoce límites, pero no quiere quedarse fuera
En su memorando, Kent Walker reconoció que las herramientas de IA no son apropiadas para vigilancia masiva doméstica ni para su uso en armas autónomas sin una supervisión humana adecuada. Sin embargo, también defendió que Google apoyará usos militares de la IA en línea con lo que están haciendo otros grandes laboratorios del sector.
Este punto es relevante porque Google no está sola. OpenAI y xAI, la compañía de inteligencia artificial de Elon Musk, también han cerrado acuerdos similares con el Gobierno estadounidense. La carrera por llevar la IA generativa y los modelos avanzados al ámbito público, militar y de seguridad nacional se está acelerando, y ninguna gran tecnológica quiere quedarse fuera de un mercado estratégico.
Para la dirección de Google, participar en estos proyectos permite influir en cómo se despliega la tecnología. Para sus críticos internos, en cambio, supone abrir una puerta difícil de cerrar.
El choque con Anthropic marca el contexto
La decisión de Google llega en un momento especialmente delicado para la industria de la IA. Anthropic, una de las startups más importantes del sector, se ha enfrentado al Pentágono después de que su CEO, Dario Amodei, se negara a firmar un acuerdo sin garantías explícitas de que sus herramientas no serían utilizadas para vigilancia masiva doméstica ni para armas autónomas letales.
El Gobierno estadounidense respondió argumentando que una empresa privada no tiene derecho a dictar la política nacional, y avanzó hacia la cancelación de contratos gubernamentales con Anthropic.
Este enfrentamiento ha puesto sobre la mesa una cuestión incómoda: ¿hasta qué punto pueden las compañías de IA imponer condiciones éticas a los gobiernos? Y, en sentido contrario, ¿hasta qué punto deben aceptar contratos públicos sin capacidad real para controlar el uso final de sus modelos?
La letra del contrato preocupa a los empleados
Uno de los puntos que más inquieta a algunos trabajadores de Google es el lenguaje del contrato. Según personas familiarizadas con sus términos, el acuerdo permitiría utilizar la IA para “cualquier propósito gubernamental legal”.
Aunque el documento señalaría que la tecnología de Google “no está destinada” a vigilancia masiva doméstica ni a armas autónomas sin control humano, la compañía no tendría capacidad para vetar las decisiones del Gobierno una vez firmado el contrato.
Esa diferencia entre “no está destinado a” y “no puede usarse para” es clave. La primera expresión funciona como una declaración de intención; la segunda sería una prohibición clara. Los empleados críticos temen que, sin mecanismos fuertes de supervisión, las salvaguardas acaben siendo demasiado débiles.
DeepMind, en el centro de la inquietud
La reacción ha sido especialmente intensa entre algunos investigadores de DeepMind, el laboratorio de inteligencia artificial de Google. Según el texto original, varios empleados se habrían mostrado sorprendidos por la rapidez con la que se tomó la decisión y por la falta de garantías externas sobre el uso de modelos de IA de última generación.
Un investigador citado por el Financial Times explicó que los expertos técnicos están particularmente preocupados porque conocen de primera mano las limitaciones de los modelos. Saben que pueden cometer errores, generar respuestas impredecibles o comportarse de forma problemática en contextos sensibles.
Esa preocupación aumenta cuando la tecnología puede acabar integrada en sistemas de seguridad nacional, donde un fallo no significa simplemente una respuesta incorrecta, sino potencialmente una decisión con consecuencias graves.
Google recuerda su historial con agencias gubernamentales
Walker justificó el acuerdo recordando que Google ya ha trabajado en el pasado en iniciativas clasificadas para agencias públicas. Entre los ejemplos citados se encuentran proyectos de ciberseguridad, traducción para actividades diplomáticas y servicios sanitarios para veteranos.
La compañía también argumenta que los gobiernos ya tienen acceso a tecnología de IA a través de modelos abiertos y software de código abierto, incluidos posibles usos de seguridad nacional. Desde esta perspectiva, Google parece sostener que es mejor ofrecer soluciones comerciales bajo ciertos principios que dejar que los gobiernos recurran a herramientas menos supervisadas.
Es un argumento pragmático, pero no resuelve del todo la cuestión ética de fondo: cuando una tecnología puede utilizarse en operaciones clasificadas, el escrutinio público se reduce de forma drástica.
Un cambio importante respecto a Project Maven
La postura actual de Google contrasta con lo ocurrido en 2018 con Project Maven, un contrato del Pentágono que utilizaba inteligencia artificial para mejorar el análisis de imágenes de drones. En aquel momento, miles de empleados firmaron una petición interna y varios trabajadores dimitieron en protesta.
Google terminó no renovando el contrato y publicó una serie de principios de IA en los que prometía no trabajar en armas ni en tecnologías de vigilancia que violaran normas internacionales o derechos humanos.
Ocho años después, el contexto ha cambiado. La IA generativa se ha convertido en una prioridad geopolítica, las grandes tecnológicas compiten por contratos gubernamentales y la presión por participar en proyectos de defensa es mucho mayor. La respuesta de Google a la protesta interna también parece mucho menos receptiva que en la etapa de Project Maven.
Los empleados piden más transparencia y supervisión
Tras la firma del acuerdo, los trabajadores críticos estarían reorganizándose alrededor de nuevas demandas. Ya no se trataría solo de pedir que Google abandone el contrato, sino de exigir más transparencia, mejores mecanismos de supervisión y límites más claros para los productos de IA que puedan utilizarse en contextos militares.
La petición tiene sentido: en acuerdos clasificados, los empleados y el público tienen muy poca visibilidad sobre el uso real de la tecnología. Eso dificulta evaluar si las promesas éticas de la compañía se cumplen en la práctica.
Google, por su parte, ha defendido que forma parte de un consorcio amplio que proporciona servicios e infraestructura de IA para apoyar la seguridad nacional. La empresa insiste en que existe un consenso sobre la necesidad de impedir usos como la vigilancia masiva doméstica o las armas autónomas sin supervisión humana adecuada.
La IA militar abre una nueva grieta en Silicon Valley
El debate dentro de Google refleja una tensión cada vez más visible en Silicon Valley. Por un lado, las empresas tecnológicas quieren vender sus herramientas de IA a gobiernos, agencias públicas y departamentos de defensa. Por otro, muchos de sus empleados temen que esa tecnología acabe alimentando sistemas de vigilancia, operaciones militares opacas o decisiones automatizadas con impacto sobre vidas humanas.
La pregunta ya no es si la IA llegará al ámbito militar. Eso ya está ocurriendo. La cuestión es bajo qué condiciones, con qué controles, con qué auditorías y con qué capacidad real de las empresas para impedir usos que contradigan sus propios principios.
El caso de Google demuestra que las líneas rojas éticas de la IA son mucho más fáciles de redactar en una página corporativa que de aplicar cuando hay contratos millonarios, presión gubernamental y competencia directa entre laboratorios.
Google apuesta por estar dentro, aunque el coste interno sea alto
Google parece haber elegido una estrategia clara: participar en proyectos de defensa y seguridad nacional, pero intentando marcar ciertos límites. La compañía cree que estar dentro de la conversación le permite influir en el desarrollo responsable de estas tecnologías.
Sus empleados críticos ven el riesgo contrario: que, una vez firmados los contratos, Google pierda capacidad de control y termine legitimando usos que no puede supervisar de forma efectiva.
La tensión probablemente no desaparecerá pronto. A medida que los modelos de IA sean más potentes, más útiles y más integrados en infraestructuras críticas, los contratos con gobiernos serán cada vez más importantes. También lo serán las dudas éticas sobre quién decide cómo se usan esas herramientas.
El acuerdo de Google con el Departamento de Defensa no es solo una noticia empresarial. Es una señal de hacia dónde se dirige la industria: la inteligencia artificial ya no es solo un producto de consumo o una herramienta de productividad. También se está convirtiendo en una pieza estratégica de seguridad nacional, con todas las preguntas incómodas que eso implica.







