L’administration Trump a dévoilé vendredi un cadre législatif destiné à établir une politique nationale unifiée en matière d’intelligence artificielle (IA) aux États-Unis. Le plan vise à anticiper les lois sur l’IA au niveau des États, en consolidant le pouvoir à Washington et en sapant potentiellement les récents efforts menés par l’État pour réglementer cette technologie en évolution rapide.

L’argument principal derrière cette centralisation est qu’un paysage réglementaire fragmenté entrave l’innovation américaine. Selon une déclaration de la Maison Blanche, « une mosaïque de lois nationales contradictoires nuirait à l’innovation américaine et à notre capacité à prendre la tête de la course mondiale à l’IA ». Le cadre propose une approche fédérale qui outrepasse les réglementations étatiques plus strictes, en donnant la priorité à la mise à l’échelle et au développement de l’IA.

Changement de responsabilité : les parents plutôt que les plateformes

Un élément clé du cadre est un changement notable de responsabilité. Plutôt que d’imposer des obligations strictes aux sociétés d’IA, il met l’accent sur le contrôle parental sur des questions telles que la sécurité des enfants. La proposition appelle le Congrès à doter les parents d’outils pour gérer les environnements numériques de leurs enfants, tels que les contrôles de compte et les limitations d’utilisation des appareils. Même s’il reconnaît la nécessité de réduire les risques d’exploitation sexuelle et d’automutilation, il ne va pas jusqu’à imposer des exigences concrètes et exécutoires aux plateformes.

Cette approche reflète une tendance plus large vers une réglementation plus légère, défendue par des personnalités comme David Sacks, tsar de l’IA à la Maison Blanche, un capital-risqueur connu pour ses opinions « accélérationnistes » en faveur de la croissance. Le cadre vise une « norme nationale minimalement contraignante », accélérant l’adoption de l’IA dans tous les secteurs.

Préemption des lois de l’État et des protections en matière de responsabilité

Le cadre cherche activement à anticiper les réglementations nationales sur l’IA, en préservant l’autorité de l’État uniquement sur les lois générales telles que la fraude, la protection de l’enfance, le zonage et l’utilisation de l’IA par l’État. Il trace explicitement une ligne dure contre les États qui réglementent le développement de l’IA lui-même, le décrivant comme une question « intrinsèquement interétatique » liée à la sécurité nationale et à la politique étrangère.

Surtout, le cadre propose de protéger les développeurs d’IA de toute responsabilité en cas de conduite illégale impliquant leurs modèles. Cette disposition empêche les États de pénaliser les développeurs en cas d’utilisation abusive de leur technologie par des tiers, une demande clé du secteur de l’IA.

Réponse de l’industrie : soutien aux normes nationales

De nombreux acteurs du secteur de l’IA célèbrent ce cadre, le considérant comme une voie vers une innovation plus rapide. Teresa Carlson, présidente du General Catalyst Institute, a déclaré que les startups demandaient exactement ceci : « Une norme nationale claire afin qu’elles puissent construire rapidement et à grande échelle. » Le cadre supprime l’obstacle lié au fait de devoir composer avec des lois nationales contradictoires, allégeant ainsi le fardeau réglementaire des entreprises d’IA.

Préoccupations concernant la responsabilité et la surveillance

Les critiques soutiennent que cette centralisation diminue le rôle des États en tant que premiers régulateurs, étouffant l’expérimentation et la surveillance. Brendan Steinhauser, PDG de l’Alliance for Secure AI, a accusé l’administration de faire « les enchères des grandes technologies aux dépens des Américains ordinaires et travailleurs ». Le cadre ne contient pas de dispositions prévoyant une surveillance indépendante, des mécanismes d’application ou des cadres de responsabilité pour les nouveaux dommages causés par l’IA.

La position de l’administration sur le droit d’auteur et la liberté d’expression complique encore les choses. Tout en reconnaissant une utilisation équitable des données de formation à l’IA, il met également l’accent sur la prévention de la censure gouvernementale, ce qui pourrait entraver la réglementation de la désinformation ou de l’ingérence électorale.

Procès anthropique : choc du premier amendement

L’accent mis par le cadre sur la protection de « l’expression politique légale » intervient alors qu’Anthropic poursuit le gouvernement, alléguant une violation du premier amendement après que le ministère de la Défense l’a qualifié de risque pour la chaîne d’approvisionnement pour avoir refusé d’autoriser les applications de surveillance militaire. Cet affrontement met en évidence la campagne plus large de l’administration contre « l’IA éveillée », alors que Trump a publiquement critiqué Anthropic pour sa neutralité idéologique.

En conclusion, le cadre d’IA proposé par l’administration Trump donne la priorité à la normalisation nationale et à la croissance de l’industrie plutôt qu’à la réglementation et à la surveillance globale au niveau des États. L’évolution vers la responsabilité parentale et les garanties de responsabilité pour les développeurs soulève des inquiétudes quant à la responsabilité et au potentiel de développement incontrôlé de l’IA.