Google ha avanzado con un importante acuerdo que permite al Departamento de Defensa de EE. UU. utilizar sus modelos de inteligencia artificial con fines clasificados. Esta decisión se produce a pesar de una fuerte oposición interna, con cientos de empleados instando a la empresa a evitar aplicaciones militares que consideren peligrosas o incontrolables.

El acuerdo, informado por primera vez por The Information, permite al Pentágono utilizar las herramientas de inteligencia artificial de Google para “cualquier propósito gubernamental legal”, incluidas operaciones militares sensibles. Al firmar este acuerdo, Google se une a una creciente cohorte de gigantes tecnológicos, incluidos OpenAI y xAI, que han establecido asociaciones clasificadas similares con el ejército estadounidense.

El alcance y las salvaguardias del acuerdo

Si bien el contrato permite un uso militar amplio, incluye limitaciones específicas. El acuerdo establece explícitamente que los sistemas de inteligencia artificial de Google no están destinados a vigilancia masiva doméstica ni a armas autónomas que carezcan de supervisión humana.

Sin embargo, los términos también aclaran que Google no tiene derecho a vetar decisiones operativas legales tomadas por el gobierno. Además, la empresa ayudará a ajustar la configuración y los filtros de seguridad según las solicitudes del gobierno. Un portavoz de Google dijo a CNET que proporcionar acceso API a modelos comerciales bajo prácticas estándar es un “enfoque responsable” para apoyar la seguridad nacional, reiterando su compromiso contra las armas autónomas no supervisadas o la vigilancia doméstica.

Contexto clave: Este cambio marca un alejamiento de la postura anterior de Google. En febrero, Google actualizó sus principios de IA para enfatizar que “las democracias deben liderar el desarrollo de la IA” y que la colaboración entre empresas y gobiernos es esencial para proteger a las personas y apoyar la seguridad nacional. Esto reemplaza el lenguaje anterior que prohibía estrictamente las tecnologías que pudieran causar daños generales o violar los derechos humanos.

Resistencia interna y tensiones históricas

El anuncio ha provocado una reacción importante dentro de Google. Más de 600 empleados firmaron una carta abierta dirigida al director ejecutivo, Sundar Pichai, pidiendo a la empresa que “se niegue a poner nuestros sistemas de inteligencia artificial a disposición de cargas de trabajo clasificadas”.

Los empleados argumentan que su proximidad a la tecnología impone la responsabilidad de evitar sus usos menos éticos. Sus preocupaciones van más allá de las armas letales autónomas y la vigilancia masiva; les preocupa que el trabajo clasificado elimine la visibilidad, haciendo imposible que los empleados sepan cómo o dónde se están implementando los modelos.

Esta tensión se hace eco de uno de los conflictos internos más destacados de Google: las protestas de 2018 contra el Proyecto Maven, un programa del Pentágono que utiliza inteligencia artificial para analizar imágenes de drones. En ese momento, miles de trabajadores se manifestaron contra el contrato, lo que llevó a Google a decidir finalmente no renovarlo. Desde entonces, la postura de la empresa hacia la IA militar se ha suavizado notablemente.

Por qué esto es importante

Este desarrollo plantea preguntas críticas sobre el papel de las empresas tecnológicas privadas en la seguridad nacional y los límites de la supervisión corporativa.

  1. Pérdida de transparencia: A diferencia de las aplicaciones comerciales, los usos militares clasificados ocurren en la oscuridad. Los empleados y el público no pueden auditar cómo se comportan estos modelos en escenarios de inteligencia o combate del mundo real.
  2. Tendencia de la industria: Con OpenAI y xAI también colaborando con el Pentágono, esto indica un cambio más amplio en la industria en el que los principales desarrolladores de IA se están volviendo parte integral de la infraestructura militar, desdibujando la línea entre la innovación tecnológica civil y las capacidades de defensa.
  3. Dilema ético: El conflicto central persiste: ¿Puede una empresa afirmar que se adhiere a los principios éticos de la IA y al mismo tiempo proporciona herramientas para operaciones gubernamentales opacas y potencialmente dañinas?

“Queremos que la IA beneficie a la humanidad, no que se utilice de manera inhumana o extremadamente dañina”, afirma la carta abierta, destacando la profunda división moral dentro de la fuerza laboral.

Conclusión

La decisión de Google de asociarse con el Pentágono para trabajos clasificados de IA representa un giro estratégico hacia la colaboración en materia de seguridad nacional, alineándolo con otras empresas importantes de IA. Sin embargo, esta medida ha reavivado un intenso debate interno, subrayando la creciente dificultad de equilibrar las responsabilidades éticas con las demandas gubernamentales en el panorama de la inteligencia artificial en rápida evolución.