Il recente scontro tra Pentagono, Anthropic e OpenAI sulla tecnologia AI sta sollevando seri interrogativi per le startup che considerano la collaborazione con il governo federale. Solo poche settimane fa, Anthropic si è ritirata da un accordo con il Pentagono dopo essere stata etichettata come un rischio per la catena di approvvigionamento dall’amministrazione Trump, mentre OpenAI è rapidamente intervenuta per colmare il divario. Questa mossa ha scatenato una reazione immediata, con gli utenti che hanno eliminato ChatGPT e spinto Claude di Anthropic in cima alle classifiche delle app.
La situazione è insolita perché sia Anthropic che OpenAI dichiarano pubblicamente il desiderio di restrizioni su come viene utilizzata la loro intelligenza artificiale, eppure il Pentagono ha tentato di modificare i termini contrattuali esistenti – una mossa che gli esperti del settore ritengono “non normale” data la natura lunga e rigida degli appalti pubblici.
Perché è importante: un panorama in continuo cambiamento?
Il dibattito è incentrato sull’etica dell’impiego dell’intelligenza artificiale in contesti letali, un fattore che attira molto più attenzione su queste aziende di alto profilo che sui tradizionali appaltatori della difesa come la General Motors, che da tempo fornisce veicoli militari con poca attenzione da parte del pubblico. Questo caso evidenzia una crescente tensione tra le aziende tecnologiche che vogliono il controllo sui loro prodotti e la richiesta di flessibilità da parte del governo nelle applicazioni di sicurezza nazionale.
I riflettori sull’intelligenza artificiale e sulla difesa tradizionale
A differenza di molti appaltatori della difesa affermati che operano sotto il radar, OpenAI e Anthropic producono strumenti ampiamente utilizzati dal pubblico. Questa visibilità amplifica il loro coinvolgimento in progetti militari, creando un’intensa pressione pubblica. Nel frattempo, aziende come Applied Intuition, che commercializzano tecnologie “dual-use”, potrebbero dover affrontare meno controlli semplicemente perché i loro prodotti sono meno conosciuti.
Scontri di personalità e instabilità contrattuale
In aggiunta alla complessità, l’animosità personale tra il CEO di Anthropic e un alto funzionario del Pentagono, secondo quanto riferito, ha alimentato la disputa. In modo ancora più critico, il tentativo del Pentagono di riscrivere un contratto esistente segnala un potenziale cambiamento nel modo in cui il governo negozia con i fornitori di tecnologia, sollevando preoccupazioni sul fatto che gli accordi futuri potrebbero essere soggetti a cambiamenti imprevedibili.
La mossa di OpenAI ha comportato un aumento del 295% delle disinstallazioni di ChatGPT, dimostrando la volontà del pubblico di agire in base a preoccupazioni etiche. Questo incidente dovrebbe servire da monito per le startup: lavorare con il DoD ora comporta un rischio maggiore di reazioni politiche e termini contrattuali instabili.
Le azioni del Pentagono sono un chiaro segnale che le procedure stabilite potrebbero non essere più applicabili e che le aziende devono valutare attentamente le potenziali conseguenze prima di perseguire i dollari federali.

























