Die Debatte über die Regulierung der künstlichen Intelligenz hat einen kritischen Punkt erreicht, da sich ein harter Kampf zwischen Bundes- und Landesbehörden entfaltet. Während Washington der Festlegung nationaler Standards immer näher kommt, geht es im Kernkonflikt nicht mehr um die Technologie selbst, sondern vielmehr darum, wer ihre Governance diktieren wird.

Staaten führen, während Bundesmaßnahmen hinterherhinken

In Ermangelung strenger bundesstaatlicher KI-Sicherheitsstandards sind die Bundesstaaten in die regulatorische Lücke gesprungen und haben Dutzende Gesetzesentwürfe eingebracht, die die Bewohner vor KI-bedingten Schäden schützen sollen. Bemerkenswerte Beispiele sind der kalifornische SB-53 und der texanische Responsible AI Governance Act, der den vorsätzlichen Missbrauch von KI-Systemen verbietet. Diese Maßnahme auf Landesebene spiegelt die wachsende Dringlichkeit wider, KI-Risiken anzugehen, bevor sie eskalieren.

Die Technologiebranche lehnt diesen dezentralen Ansatz jedoch strikt ab und argumentiert, dass dadurch ein undurchführbarer Flickenteppich entsteht, der Innovationen erstickt. Von der Industrie unterstützte Gruppen behaupten, dass eine fragmentierte Regulierungslandschaft die Wettbewerbsfähigkeit beeinträchtigen werde, insbesondere im Wettlauf mit China. Dieses Argument wird von einigen im Weißen Haus geteilt, die entweder einen einheitlichen nationalen Standard oder überhaupt keine Regulierung befürworten.

Bundespräventionsbemühungen gewinnen an Zugkraft

Hinter den Kulissen drängen mächtige Kräfte aktiv auf eine bundesstaatliche Präemption und entziehen den Bundesstaaten damit faktisch ihre Autorität zur Regulierung von KI. Berichten zufolge erwägen die Gesetzgeber im Repräsentantenhaus eine Formulierung im National Defense Authorization Act (NDAA), um staatliche KI-Gesetze zu blockieren. Gleichzeitig zeigt ein durchgesickerter Entwurf einer Executive Order (EO) des Weißen Hauses starke Unterstützung für übergeordnete staatliche Bemühungen.

Die vorgeschlagene EO würde eine „AI Litigation Task Force“ einrichten, um staatliche Gesetze vor Gericht anzufechten, Behörden anweisen, als „belastend“ erachtete staatliche Regeln zu bewerten, und die Federal Communications Commission (FCC) und die Federal Trade Commission (FTC) dazu drängen, nationale Standards einzuhalten. Entscheidend ist, dass der EO David Sacks – Trumps KI- und Krypto-Zar – in eine Co-Führungsrolle zuweisen würde, was ihm erheblichen Einfluss auf die KI-Politik gewähren würde.

Industriefinanzierung schürt Widerstand gegen staatliche Regulierung

Pro-KI-Super-PACs, unterstützt von großen Technologieinvestoren wie Andreessen Horowitz und OpenAI-Präsident Greg Brockman, haben Hunderte Millionen in Kommunal- und Landeswahlen gesteckt, um sich Kandidaten zu widersetzen, die die KI-Regulierung unterstützen. Leading the Future, ein solches PAC, hat über 100 Millionen US-Dollar gesammelt und eine 10-Millionen-Dollar-Kampagne gestartet, um den Kongress unter Druck zu setzen, eine nationale KI-Politik zu entwickeln, die den Gesetzen der Bundesstaaten zuvorkommt.

Befürworter der Industrie argumentieren, dass bestehende Gesetze, beispielsweise zu Betrug oder Produkthaftung, ausreichen, um Schäden durch KI zu bewältigen. Diese Haltung befürwortet einen reaktiven Ansatz: Lassen Sie Unternehmen schnell Innovationen einführen und auftretende Probleme vor Gericht ansprechen. Kritiker argumentieren jedoch, dass dieser Ansatz die Verbraucher unkontrollierten Risiken aussetzt.

Die bundesstaatliche Dynamik: Eine notwendige Spannung?

Trotz der Bemühungen, staatliche Regulierungen zu blockieren, haben sich Gesetzgeber und Generalstaatsanwälte zurückgehalten und argumentiert, dass Staaten als wichtige „Labore der Demokratie“ fungieren, die in der Lage sind, aufkommende digitale Herausforderungen schneller zu bewältigen als die Bundesregierung. Bisher haben 38 Bundesstaaten über 100 KI-bezogene Gesetze verabschiedet, die vor allem auf Deepfakes, Transparenz und den Einsatz von KI durch die Regierung abzielen.

Der Abgeordnete Ted Lieu (D-CA) entwirft einen umfassenden KI-Gesetzentwurf des Bundes, der Betrugsstrafen, Deepfake-Schutz, Whistleblower-Schutz und obligatorische Tests für große Sprachmodelle umfasst. Er räumt zwar ein, dass der Gesetzentwurf möglicherweise nicht so streng ist wie einige Vorschläge, glaubt jedoch, dass die Chancen, dass er in einem geteilten Kongress angenommen wird, höher sind.

Die Pattsituation zwischen Bundes- und Landesbehörden unterstreicht eine grundlegende Frage: Wie bringen wir Innovation mit Sicherheit und Rechenschaftspflicht im Zeitalter der KI in Einklang? In den kommenden Monaten wird es darum gehen, ob die Staaten ihre Regulierungsautonomie behalten oder ob eine umfassende bundesstaatliche Vorentscheidung greift. Das Ergebnis wird nicht nur die Zukunft der KI-Governance prägen, sondern auch die umfassendere Beziehung zwischen Bundes- und Landesbehörden im digitalen Zeitalter.