Google a conclu un accord important autorisant le département américain de la Défense à utiliser ses modèles d’intelligence artificielle à des fins classifiées. Cette décision intervient malgré une forte opposition interne, des centaines d’employés exhortant l’entreprise à éviter les applications militaires qu’ils jugent dangereuses ou ingérables.

L’accord, rapporté pour la première fois par The Information, permet au Pentagone d’utiliser les outils d’IA de Google à “toute fin légitime du gouvernement”, y compris des opérations militaires sensibles. En concluant cet accord, Google rejoint une cohorte croissante de géants de la technologie, dont OpenAI et xAI, qui ont conclu des partenariats classifiés similaires avec l’armée américaine.

La portée et les garanties de l’accord

Bien que le contrat autorise une large utilisation militaire, il inclut des limitations spécifiques. L’accord stipule explicitement que les systèmes d’IA de Google ne sont pas destinés à la surveillance de masse nationale ou aux armes autonomes dépourvues de surveillance humaine.

Cependant, les conditions précisent également que Google n’a pas le droit de veto sur les décisions opérationnelles licites prises par le gouvernement. De plus, l’entreprise aidera à ajuster les paramètres de sécurité et les filtres en fonction des demandes du gouvernement. Un porte-parole de Google a déclaré à CNET que fournir un accès API aux modèles commerciaux selon des pratiques standard est une « approche responsable » pour soutenir la sécurité nationale, réitérant son engagement contre les armes autonomes non supervisées ou la surveillance nationale.

Contexte clé : Ce changement marque un changement par rapport à la position précédente de Google. En février, Google a mis à jour ses principes en matière d’IA pour souligner que « les démocraties devraient prendre la tête du développement de l’IA » et que la collaboration entre les entreprises et les gouvernements est essentielle pour protéger les personnes et soutenir la sécurité nationale. Cela remplace un libellé antérieur qui interdisait strictement les technologies susceptibles de causer un préjudice global ou de violer les droits de l’homme.

Résistance interne et tensions historiques

L’annonce a déclenché d’importantes réactions négatives au sein de Google. Plus de 600 employés ont signé une lettre ouverte adressée au PDG Sundar Pichai, appelant l’entreprise à “refuser de rendre nos systèmes d’IA disponibles pour des charges de travail classifiées.”

Les employés affirment que leur proximité avec la technologie leur impose la responsabilité d’empêcher ses utilisations les plus contraires à l’éthique. Leurs préoccupations vont au-delà des armes mortelles autonomes et de la surveillance de masse ; ils craignent que le travail classifié supprime la visibilité, empêchant ainsi les employés de savoir comment et où les modèles sont déployés.

Cette tension fait écho à l’un des conflits internes les plus importants de Google : les manifestations de 2018 contre le Projet Maven, un programme du Pentagone utilisant l’IA pour analyser les images de drones. À cette époque, des milliers de travailleurs se sont rassemblés contre le contrat, ce qui a conduit Google à décider finalement de ne pas le renouveler. Depuis lors, la position de l’entreprise à l’égard de l’IA militaire s’est considérablement assouplie.

Pourquoi c’est important

Cette évolution soulève des questions cruciales sur le rôle des entreprises technologiques privées dans la sécurité nationale et sur les limites de la surveillance des entreprises.

  1. Perte de transparence : Contrairement aux applications commerciales, les utilisations militaires classifiées se produisent dans l’obscurité. Les employés et le public ne peuvent pas vérifier le comportement de ces modèles dans des scénarios réels de combat ou de renseignement.
  2. Tendance de l’industrie : L’OpenAI et xAI s’engageant également avec le Pentagone, cela signale un changement plus large dans l’industrie où les principaux développeurs d’IA deviennent partie intégrante de l’infrastructure militaire, brouillant la frontière entre l’innovation technologique civile et les capacités de défense.
  3. Dilemme éthique : Le conflit principal demeure : une entreprise peut-elle prétendre adhérer aux principes éthiques de l’IA tout en fournissant des outils pour des opérations gouvernementales opaques et potentiellement dangereuses ?

“Nous voulons que l’IA profite à l’humanité, et non qu’elle soit utilisée de manière inhumaine ou extrêmement nuisible”, déclare la lettre ouverte, soulignant la profonde division morale au sein du monde du travail.

Conclusion

La décision de Google de s’associer au Pentagone pour des travaux classifiés sur l’IA représente un pivot stratégique vers une collaboration en matière de sécurité nationale, en l’alignant sur d’autres grandes sociétés d’IA. Cependant, cette décision a relancé un débat interne intense, soulignant la difficulté croissante d’équilibrer les responsabilités éthiques et les exigences du gouvernement dans le paysage en évolution rapide de l’intelligence artificielle.