Google ha portato avanti un accordo significativo che consente al Dipartimento della Difesa degli Stati Uniti di utilizzare i suoi modelli di intelligenza artificiale per scopi riservati. Questa decisione arriva nonostante la forte opposizione interna, con centinaia di dipendenti che sollecitano l’azienda a evitare applicazioni militari che ritengono pericolose o non monitorabili.
L’accordo, riportato per la prima volta da The Information, consente al Pentagono di utilizzare gli strumenti di intelligenza artificiale di Google per “qualsiasi scopo governativo legittimo”, comprese operazioni militari sensibili. Stipulando questo accordo, Google si unisce a un gruppo crescente di giganti della tecnologia, tra cui OpenAI e xAI, che hanno stretto simili partnership segrete con l’esercito americano.
Campo di applicazione e garanzie dell’accordo
Sebbene il contratto consenta un ampio utilizzo militare, include limitazioni specifiche. L’accordo afferma esplicitamente che i sistemi di intelligenza artificiale di Google non sono destinati alla sorveglianza di massa interna o alle armi autonome prive di controllo umano.
Tuttavia, i termini chiariscono anche che Google non ha il diritto di veto sulle decisioni operative legittime prese dal governo. Inoltre, la società fornirà assistenza nella regolazione delle impostazioni e dei filtri di sicurezza in base alle richieste del governo. Un portavoce di Google ha detto a CNET che fornire l’accesso API ai modelli commerciali secondo pratiche standard è un “approccio responsabile” per sostenere la sicurezza nazionale, ribadendo il loro impegno contro le armi autonome senza supervisione o la sorveglianza domestica.
Contesto chiave: questo cambiamento segna un allontanamento dalla precedente posizione di Google. A febbraio, Google ha aggiornato i suoi principi sull’intelligenza artificiale per sottolineare che “le democrazie dovrebbero guidare lo sviluppo dell’intelligenza artificiale” e che la collaborazione tra aziende e governi è essenziale per proteggere le persone e sostenere la sicurezza nazionale. Ciò sostituisce il linguaggio precedente che vietava severamente le tecnologie che potevano causare danni complessivi o violare i diritti umani.
Resistenze interne e tensioni storiche
L’annuncio ha innescato una reazione significativa all’interno di Google. Più di 600 dipendenti hanno firmato una lettera aperta indirizzata al CEO Sundar Pichai, invitando l’azienda a “rifiutarsi di rendere i nostri sistemi di intelligenza artificiale disponibili per carichi di lavoro classificati.”
I dipendenti sostengono che la loro vicinanza alla tecnologia impone la responsabilità di prevenirne gli usi più immorali. Le loro preoccupazioni vanno oltre le armi autonome letali e la sorveglianza di massa; temono che il lavoro classificato rimuova la visibilità, rendendo impossibile per i dipendenti sapere come o dove vengono implementati i modelli.
Questa tensione riecheggia uno dei conflitti interni più importanti di Google: le proteste del 2018 contro il Project Maven, un programma del Pentagono che utilizza l’intelligenza artificiale per analizzare le riprese dei droni. A quel tempo, migliaia di lavoratori si sono mobilitati contro il contratto, portando Google alla fine a decidere di non rinnovarlo. Da allora, l’atteggiamento dell’azienda nei confronti dell’intelligenza artificiale militare si è notevolmente attenuato.
Perché è importante
Questo sviluppo solleva questioni cruciali sul ruolo delle aziende tecnologiche private nella sicurezza nazionale e sui limiti della supervisione aziendale.
- Perdita di trasparenza: A differenza delle applicazioni commerciali, gli usi militari classificati avvengono nell’oscurità. I dipendenti e il pubblico non possono verificare il comportamento di questi modelli negli scenari di combattimento o di intelligence del mondo reale.
- Tendenza del settore: Con OpenAI e xAI che collaborano anche con il Pentagono, ciò segnala un cambiamento più ampio del settore in cui i principali sviluppatori di intelligenza artificiale stanno diventando parte integrante delle infrastrutture militari, offuscando il confine tra innovazione tecnologica civile e capacità di difesa.
- Dilemma etico: Il conflitto principale rimane: può un’azienda affermare di aderire ai principi etici dell’IA fornendo allo stesso tempo strumenti per operazioni governative opache e potenzialmente dannose?
“Vogliamo che l’intelligenza artificiale avvantaggi l’umanità, non che venga utilizzata in modi disumani o estremamente dannosi”, afferma la lettera aperta, evidenziando il profondo divario morale all’interno della forza lavoro.
Conclusione
La decisione di Google di collaborare con il Pentagono per il lavoro riservato sull’intelligenza artificiale rappresenta un perno strategico verso la collaborazione sulla sicurezza nazionale, allineandola con altre importanti aziende di intelligenza artificiale. Tuttavia, questa mossa ha riacceso un intenso dibattito interno, sottolineando la crescente difficoltà di bilanciare le responsabilità etiche con le richieste del governo nel panorama in rapida evoluzione dell’intelligenza artificiale.


























