Le débat sur la réglementation de l’intelligence artificielle a atteint un tournant critique, avec une bataille aux enjeux élevés entre les autorités fédérales et étatiques. Alors que Washington se rapproche de l’établissement de normes nationales, le conflit central ne concerne pas la technologie elle-même mais plutôt qui dictera sa gouvernance.
Les États mènent alors que l’action fédérale est à la traîne
En l’absence de normes fédérales strictes en matière de sécurité de l’IA, les États ont comblé le vide réglementaire en introduisant des dizaines de projets de loi destinés à protéger les résidents des méfaits liés à l’IA. Des exemples notables incluent le SB-53 de la Californie et le Responsible AI Governance Act du Texas, qui interdit l’utilisation abusive intentionnelle des systèmes d’IA. Cette action au niveau de l’État reflète l’urgence croissante de lutter contre les risques liés à l’IA avant qu’ils ne s’aggravent.
L’industrie technologique s’oppose cependant fermement à cette approche décentralisée, arguant qu’elle crée un patchwork irréalisable qui étouffe l’innovation. Les groupes soutenus par l’industrie affirment qu’un paysage réglementaire fragmenté entravera la compétitivité, en particulier dans la course contre la Chine. Cet argument est repris par certains au sein de la Maison Blanche qui sont favorables soit à une norme nationale uniforme, soit à l’absence de réglementation du tout.
Les efforts fédéraux de préemption gagnent du terrain
En coulisses, des forces puissantes militent activement en faveur d’une préemption fédérale, privant ainsi les États de leur autorité en matière de réglementation de l’IA. Les législateurs de la Chambre envisageraient d’insérer dans la loi sur l’autorisation de la défense nationale (NDAA) un libellé visant à bloquer les lois des États sur l’IA. Simultanément, une fuite d’un projet de décret de la Maison Blanche démontre un fort soutien aux efforts prioritaires de l’État.
L’EO proposé établirait un « Groupe de travail sur les litiges en matière d’IA » pour contester les lois des États devant les tribunaux, ordonner aux agences d’évaluer les règles des États jugées « onéreuses » et pousser la Federal Communications Commission (FCC) et la Federal Trade Commission (FTC) vers des normes nationales. Surtout, l’EO placerait David Sacks – le tsar de l’IA et de la crypto de Trump – dans un rôle de co-responsable, lui accordant une influence significative sur la politique en matière d’IA.
Le financement de l’industrie alimente l’opposition à la réglementation de l’État
Les super PAC pro-IA, soutenus par de grands investisseurs technologiques comme Andreessen Horowitz et le président d’OpenAI Greg Brockman, ont investi des centaines de millions dans les élections locales et nationales pour s’opposer aux candidats qui soutiennent la réglementation de l’IA. Leading the Future, l’un de ces PAC, a collecté plus de 100 millions de dollars et lancé une campagne de 10 millions de dollars pour faire pression sur le Congrès afin qu’il crée une politique nationale en matière d’IA qui préempte les lois des États.
Les défenseurs de l’industrie soutiennent que les lois existantes, telles que celles traitant de la fraude ou de la responsabilité du fait des produits, sont suffisantes pour gérer les dommages causés par l’IA. Cette position privilégie une approche réactive : laisser les entreprises innover rapidement et régler les problèmes devant les tribunaux dès qu’ils surviennent. Toutefois, les critiques affirment que cette approche laisse les consommateurs vulnérables à des risques incontrôlés.
La dynamique État-Fédéral : une tension nécessaire ?
Malgré les efforts visant à bloquer la réglementation des États, les législateurs et les procureurs généraux ont reculé, arguant que les États constituent des « laboratoires de la démocratie » vitaux, capables de relever les défis numériques émergents plus rapidement que le gouvernement fédéral. À ce jour, 38 États ont adopté plus de 100 lois liées à l’IA, ciblant principalement les deepfakes, la transparence et l’utilisation gouvernementale de l’IA.
Le représentant Ted Lieu (D-CA) rédige un projet de loi fédéral complet sur l’IA couvrant les sanctions contre la fraude, les protections contre les deepfakes, la protection des lanceurs d’alerte et les tests obligatoires pour les grands modèles de langage. Même s’il reconnaît que le projet de loi n’est peut-être pas aussi strict que certaines propositions, il estime qu’il a plus de chances d’être adopté dans un Congrès divisé.
L’impasse entre les autorités fédérales et étatiques souligne une question fondamentale : Comment équilibrer l’innovation avec la sécurité et la responsabilité à l’ère de l’IA ? Les mois à venir détermineront si les États conservent leur autonomie réglementaire ou si une préemption fédérale radicale s’installe. Le résultat façonnera non seulement l’avenir de la gouvernance de l’IA, mais également la relation plus large entre les pouvoirs fédéraux et étatiques à l’ère numérique.


























