L’amministrazione Trump ha presentato venerdì un quadro legislativo progettato per stabilire una politica nazionale unificata per l’intelligenza artificiale (AI) negli Stati Uniti. Il piano cerca di anticipare le leggi sull’intelligenza artificiale a livello statale, consolidando il potere a Washington e minando potenzialmente i recenti sforzi guidati dallo stato per regolamentare la tecnologia in rapida evoluzione.

L’argomento principale alla base di questa centralizzazione è che un panorama normativo frammentato ostacola l’innovazione americana. Secondo una dichiarazione della Casa Bianca, “Un mosaico di leggi statali contrastanti minerebbe l’innovazione americana e la nostra capacità di guidare la corsa globale all’intelligenza artificiale”. Il quadro propone un approccio federale che prevale sulle normative statali più severe, dando priorità alla scalabilità e allo sviluppo dell’IA.

Cambiare responsabilità: i genitori più delle piattaforme

Un elemento chiave del quadro è un notevole cambiamento di responsabilità. Invece di imporre obblighi stringenti alle società di intelligenza artificiale, si enfatizza il controllo dei genitori su questioni come la sicurezza dei bambini. La proposta invita il Congresso a dotare i genitori di strumenti per gestire gli ambienti digitali dei propri figli, come controlli sugli account e limitazioni sull’utilizzo dei dispositivi. Pur riconoscendo la necessità di ridurre i rischi di sfruttamento sessuale e autolesionismo, si ferma prima di imporre requisiti concreti e applicabili per le piattaforme.

Questo approccio riflette una tendenza più ampia verso una regolamentazione più leggera, sostenuta da figure come lo zar dell’intelligenza artificiale della Casa Bianca David Sacks, un venture capitalist noto per le sue opinioni “accelerazioniste” a favore della crescita. Il quadro mira a uno “standard nazionale minimamente oneroso”, accelerando l’adozione dell’intelligenza artificiale in tutti i settori.

Prelazione delle leggi statali e protezioni di responsabilità

Il quadro cerca attivamente di anticipare le normative statali sull’IA, preservando l’autorità statale solo su leggi generali come la frode, la protezione dei minori, la zonizzazione e l’uso statale dell’IA. Traccia esplicitamente una linea dura contro gli stati che regolano lo stesso sviluppo dell’intelligenza artificiale, inquadrandolo come una questione “intrinsecamente interstatale” legata alla sicurezza nazionale e alla politica estera.

Fondamentalmente, il quadro propone di tutelare gli sviluppatori di intelligenza artificiale dalla responsabilità per comportamenti illeciti che coinvolgono i loro modelli. Questa disposizione impedisce agli Stati di penalizzare gli sviluppatori per l’uso improprio della loro tecnologia da parte di terzi, una richiesta chiave del settore dell’intelligenza artificiale.

Risposta del settore: supporto agli standard nazionali

Molti nel settore dell’intelligenza artificiale celebrano questo quadro, considerandolo un percorso verso un’innovazione più rapida. Teresa Carlson, presidente del General Catalyst Institute, ha affermato che le startup chiedono esattamente questo: “Uno standard nazionale chiaro in modo che possano costruire velocemente e su larga scala”. Il quadro elimina l’ostacolo derivante dalla navigazione tra leggi statali contrastanti, alleggerendo l’onere normativo sulle società di intelligenza artificiale.

Preoccupazioni sulla responsabilità e sulla supervisione

I critici sostengono che questa centralizzazione sminuisce il ruolo degli stati come primi regolatori, soffocando la sperimentazione e la supervisione. Brendan Steinhauser, CEO di The Alliance for Secure AI, ha accusato l’amministrazione di eseguire “gli ordini delle Big Tech a scapito degli americani regolari e laboriosi”. Il quadro manca di disposizioni per una supervisione indipendente, meccanismi di applicazione o quadri di responsabilità per i nuovi danni causati dall’IA.

La posizione dell’amministrazione sul diritto d’autore e sulla libertà di parola complica ulteriormente le cose. Pur riconoscendo il fair use dei dati di addestramento sull’intelligenza artificiale, sottolinea anche la prevenzione della censura governativa, che potrebbe ostacolare la regolamentazione della disinformazione o delle interferenze elettorali.

Causa antropica: scontro sul primo emendamento

L’enfasi del quadro sulla protezione della “lecita espressione politica” arriva quando Anthropic fa causa al governo, presunta violazione del Primo Emendamento dopo che il Dipartimento della Difesa lo ha etichettato come un rischio per la catena di approvvigionamento per aver rifiutato di consentire applicazioni di sorveglianza militare. Questo scontro evidenzia la più ampia spinta dell’amministrazione contro l’“intelligenza artificiale sveglia”, poiché Trump ha pubblicamente criticato Anthropic per la sua neutralità ideologica.

In conclusione, il quadro di intelligenza artificiale proposto dall’amministrazione Trump dà priorità alla standardizzazione nazionale e alla crescita del settore rispetto alla regolamentazione a livello statale e alla supervisione globale. Lo spostamento verso la responsabilità genitoriale e gli scudi di responsabilità per gli sviluppatori solleva preoccupazioni sulla responsabilità e sul potenziale di uno sviluppo incontrollato dell’IA.