Le récent conflit entre le Pentagone, Anthropic et OpenAI au sujet de la technologie de l’IA soulève de sérieuses questions pour les startups qui envisagent de travailler avec le gouvernement fédéral. Il y a quelques semaines à peine, Anthropic a renoncé à un accord avec le Pentagone après avoir été qualifié de risque pour la chaîne d’approvisionnement par l’administration Trump, tandis qu’OpenAI est rapidement intervenu pour combler le vide. Cette décision a déclenché une réaction immédiate, les utilisateurs supprimant ChatGPT et poussant Claude d’Anthropic au sommet des classements des applications.

La situation est inhabituelle car Anthropic et OpenAI déclarent publiquement vouloir des restrictions sur la façon dont leur IA est utilisée, et pourtant le Pentagone a tenté de modifier les termes des contrats existants – une décision qui, selon les experts du secteur, n’est « pas normale » compte tenu de la nature longue et rigide des marchés publics.

Pourquoi est-ce important : un paysage en évolution ?

Le débat se concentre sur l’éthique du déploiement de l’IA dans des contextes meurtriers, un facteur qui attire beaucoup plus l’attention sur ces entreprises de premier plan que sur les entrepreneurs de défense traditionnels comme General Motors, qui a longtemps fourni des véhicules militaires avec peu d’attention du public. Cette affaire met en évidence une tension croissante entre les entreprises technologiques souhaitant contrôler leurs produits et la demande du gouvernement de flexibilité dans les applications de sécurité nationale.

Pleins feux sur l’IA par rapport à la défense traditionnelle

Contrairement à de nombreux sous-traitants de la défense établis opérant dans l’ombre, OpenAI et Anthropic produisent des outils largement utilisés par le public. Cette visibilité amplifie leur implication dans des projets militaires, créant une intense pression publique. Pendant ce temps, des entreprises comme Applied Intuition, qui commercialisent des technologies « à double usage », pourraient être moins surveillées simplement parce que leurs produits sont moins connus.

Conflits de personnalité et instabilité des contrats

Ajoutant à la complexité, l’animosité personnelle entre le PDG d’Anthropic et un haut responsable du Pentagone aurait alimenté le différend. Plus important encore, la tentative du Pentagone de réécrire un contrat existant signale un changement potentiel dans la manière dont le gouvernement négocie avec les fournisseurs de technologies, suscitant des inquiétudes quant au fait que les futurs accords pourraient être sujets à des changements imprévisibles.

La décision d’OpenAI a entraîné une augmentation de 295 % des désinstallations de ChatGPT, démontrant la volonté du public d’agir en fonction de préoccupations éthiques. Cet incident devrait servir d’avertissement aux startups : travailler avec le DoD s’accompagne désormais d’un risque accru de réactions politiques et de conditions contractuelles instables.

Les actions du Pentagone sont un signe clair que les procédures établies pourraient ne plus s’appliquer, et les entreprises doivent soigneusement peser les conséquences potentielles avant de solliciter des fonds fédéraux.