Il dibattito sulla regolamentazione dell’intelligenza artificiale ha raggiunto un punto critico, con una battaglia ad alto rischio in corso tra le autorità federali e statali. Mentre Washington si avvicina sempre più alla definizione di standard nazionali, il conflitto principale non riguarda la tecnologia in sé ma piuttosto chi ne detterà la governance.
Gli Stati guidano mentre l’azione federale ritarda
In assenza di solidi standard federali di sicurezza sull’intelligenza artificiale, gli stati sono intervenuti nel vuoto normativo, introducendo decine di progetti di legge progettati per proteggere i residenti dai danni legati all’intelligenza artificiale. Esempi degni di nota includono l’SB-53 della California e il Responsible AI Governance Act del Texas, che vieta l’uso improprio intenzionale dei sistemi di intelligenza artificiale. Questa azione a livello statale riflette la crescente urgenza di affrontare i rischi legati all’intelligenza artificiale prima che si intensifichino.
L’industria tecnologica, tuttavia, si oppone fermamente a questo approccio decentralizzato, sostenendo che crea un mosaico impraticabile che soffoca l’innovazione. I gruppi sostenuti dall’industria sostengono che un panorama normativo frammentato ostacolerà la competitività, in particolare nella corsa contro la Cina. A questa argomentazione fanno eco alcuni all’interno della Casa Bianca che sono a favore di uno standard nazionale uniforme o dell’assenza totale di regolamentazione.
Gli sforzi di prevenzione federale guadagnano terreno
Dietro le quinte, forze potenti stanno spingendo attivamente per un’azione preventiva a livello federale, privando di fatto gli Stati della loro autorità di regolamentare l’IA. Secondo quanto riferito, i legislatori alla Camera stanno prendendo in considerazione la possibilità di inserire nel National Defense Authorization Act (NDAA) la possibilità di bloccare le leggi statali sull’IA. Allo stesso tempo, una bozza trapelata di un ordine esecutivo (EO) della Casa Bianca dimostra un forte sostegno agli sforzi prioritari dello Stato.
L’EO proposto istituirebbe una “Task Force per il contenzioso sull’intelligenza artificiale” per contestare le leggi statali in tribunale, dirigere le agenzie a valutare le norme statali ritenute “onerose” e spingere la Federal Communications Commission (FCC) e la Federal Trade Commission (FTC) verso gli standard nazionali. Fondamentalmente, l’EO collocherebbe David Sacks – AI di Trump e Crypto Czar – in un ruolo di co-protagonista, garantendogli un’influenza significativa sulla politica dell’IA.
I finanziamenti dell’industria alimentano l’opposizione alla regolamentazione statale
I super PAC pro-AI, sostenuti da importanti investitori tecnologici come Andreessen Horowitz e il presidente di OpenAI Greg Brockman, hanno investito centinaia di milioni nelle elezioni locali e statali per opporsi ai candidati che sostengono la regolamentazione dell’IA. Leading the Future, uno di questi PAC, ha raccolto oltre 100 milioni di dollari e lanciato una campagna da 10 milioni di dollari per fare pressione sul Congresso affinché crei una politica nazionale sull’intelligenza artificiale che anticipi le leggi statali.
I sostenitori del settore sostengono che le leggi esistenti, come quelle che affrontano la frode o la responsabilità del prodotto, sono sufficienti per gestire i danni derivanti dall’IA. Questa posizione favorisce un approccio reattivo: lasciare che le aziende innovino rapidamente e affrontino i problemi in tribunale non appena si presentano. Tuttavia, i critici sostengono che questo approccio lascia i consumatori vulnerabili a rischi incontrollati.
La dinamica Stato-federale: una tensione necessaria?
Nonostante gli sforzi per bloccare la regolamentazione statale, legislatori e procuratori generali si sono opposti, sostenendo che gli stati fungono da vitali “laboratori di democrazia” in grado di affrontare le sfide digitali emergenti più rapidamente del governo federale. Ad oggi, 38 stati hanno adottato oltre 100 leggi relative all’IA, mirando principalmente ai deepfake, alla trasparenza e all’uso dell’IA da parte del governo.
Il deputato Ted Lieu (D-CA) sta elaborando un disegno di legge federale completo sull’intelligenza artificiale che copre sanzioni contro le frodi, protezioni dai deepfake, protezioni per gli informatori e test obbligatori per modelli linguistici di grandi dimensioni. Pur riconoscendo che il disegno di legge potrebbe non essere così rigido come alcune proposte, ritiene che abbia maggiori possibilità di essere approvato in un Congresso diviso.
Lo stallo tra le autorità federali e statali sottolinea una domanda fondamentale: Come bilanciare l’innovazione con la sicurezza e la responsabilità nell’era dell’intelligenza artificiale? I prossimi mesi determineranno se gli stati manterranno la loro autonomia normativa o se prenderà piede un’ampia prelazione federale. Il risultato determinerà non solo il futuro della governance dell’IA, ma anche la relazione più ampia tra i poteri federali e statali nell’era digitale.

























