Google hat eine wichtige Vereinbarung getroffen, die es dem US-Verteidigungsministerium ermöglicht, seine Modelle der künstlichen Intelligenz für geheime Zwecke zu nutzen. Diese Entscheidung wurde trotz heftiger interner Widerstände getroffen, da Hunderte von Mitarbeitern das Unternehmen dazu drängten, militärische Anwendungen zu vermeiden, die sie für gefährlich oder nicht kontrollierbar halten.
Der Deal, über den erstmals von The Information berichtet wurde, erlaubt dem Pentagon, die KI-Tools von Google für „jeden rechtmäßigen Regierungszweck“ zu nutzen, einschließlich sensibler Militäroperationen. Durch den Abschluss dieser Vereinbarung schließt sich Google einer wachsenden Kohorte von Technologiegiganten an – darunter OpenAI und xAI –, die ähnliche geheime Partnerschaften mit dem US-Militär geschlossen haben.
Der Umfang und die Garantien der Vereinbarung
Während der Vertrag eine breite militärische Nutzung zulässt, enthält er bestimmte Einschränkungen. In der Vereinbarung heißt es ausdrücklich, dass die KI-Systeme von Google nicht für die Massenüberwachung im Inland oder für autonome Waffen ohne menschliche Kontrolle gedacht sind.
Die Bedingungen stellen jedoch auch klar, dass Google nicht das Recht hat, gegen rechtmäßige operative Entscheidungen der Regierung ein Veto einzulegen. Darüber hinaus unterstützt das Unternehmen bei der Anpassung von Sicherheitseinstellungen und Filtern auf der Grundlage behördlicher Anfragen. Ein Google-Sprecher sagte gegenüber CNET, dass die Bereitstellung von API-Zugriff auf kommerzielle Modelle im Rahmen von Standardpraktiken ein „verantwortungsvoller Ansatz“ zur Unterstützung der nationalen Sicherheit sei, und bekräftigte sein Engagement gegen unbeaufsichtigte autonome Waffen oder inländische Überwachung.
Wichtiger Kontext: Diese Änderung markiert eine Abkehr von der vorherigen Haltung von Google. Im Februar aktualisierte Google seine KI-Grundsätze und betonte, dass „Demokratien bei der KI-Entwicklung führend sein sollten“ und dass die Zusammenarbeit zwischen Unternehmen und Regierungen für den Schutz der Menschen und die Unterstützung der nationalen Sicherheit unerlässlich sei. Dies ersetzt frühere Formulierungen, die Technologien strengstens untersagten, die voraussichtlich allgemeinen Schaden anrichten oder die Menschenrechte verletzen könnten.
Interner Widerstand und historische Spannungen
Die Ankündigung hat bei Google erhebliche Gegenreaktionen ausgelöst. Mehr als 600 Mitarbeiter unterzeichneten einen offenen Brief an CEO Sundar Pichai, in dem sie das Unternehmen aufforderten, „sich zu weigern, unsere KI-Systeme für geheime Arbeitslasten zur Verfügung zu stellen.“**
Die Mitarbeiter argumentieren, dass ihre Nähe zur Technologie die Verantwortung mit sich bringt, ihre unethischsten Anwendungen zu verhindern. Ihre Bedenken gehen über tödliche autonome Waffen und Massenüberwachung hinaus; Sie befürchten, dass klassifizierte Arbeit die Sichtbarkeit beeinträchtigt und es den Mitarbeitern unmöglich macht, zu wissen, wie oder wo die Modelle eingesetzt werden.
Diese Spannung spiegelt einen der prominentesten internen Konflikte von Google wider: die Proteste gegen Project Maven im Jahr 2018, ein Pentagon-Programm, das KI zur Analyse von Drohnenaufnahmen einsetzt. Damals demonstrierten Tausende von Arbeitnehmern gegen den Vertrag, was dazu führte, dass Google letztendlich beschloss, ihn nicht zu verlängern. Seitdem hat sich die Haltung des Unternehmens gegenüber militärischer KI deutlich abgeschwächt.
Warum das wichtig ist
Diese Entwicklung wirft kritische Fragen zur Rolle privater Technologieunternehmen für die nationale Sicherheit und zu den Grenzen der Unternehmensaufsicht auf.
- Transparenzverlust: Im Gegensatz zu kommerziellen Anwendungen erfolgen geheime militärische Verwendungen im Dunkeln. Mitarbeiter und Öffentlichkeit können nicht überprüfen, wie sich diese Modelle in realen Kampf- oder Geheimdienstszenarien verhalten.
- Branchentrend: Da OpenAI und xAI auch mit dem Pentagon zusammenarbeiten, signalisiert dies einen breiteren Branchenwandel, bei dem große KI-Entwickler zu einem integralen Bestandteil der militärischen Infrastruktur werden und die Grenze zwischen ziviler technischer Innovation und Verteidigungsfähigkeiten verwischt.
- Ethisches Dilemma: Der Kernkonflikt bleibt bestehen: Kann ein Unternehmen behaupten, ethische KI-Prinzipien einzuhalten und gleichzeitig Werkzeuge für undurchsichtige, potenziell schädliche Regierungsoperationen bereitzustellen?
„Wir wollen, dass KI der Menschheit nützt, und nicht, dass sie auf unmenschliche oder äußerst schädliche Weise eingesetzt wird“, heißt es in dem offenen Brief und verdeutlicht die tiefe moralische Kluft innerhalb der Belegschaft.
Fazit
Die Entscheidung von Google, mit dem Pentagon für geheime KI-Arbeiten zusammenzuarbeiten, stellt einen strategischen Dreh- und Angelpunkt für die Zusammenarbeit im Bereich der nationalen Sicherheit dar und bringt das Unternehmen mit anderen großen KI-Unternehmen in Einklang. Dieser Schritt hat jedoch eine intensive interne Debatte neu entfacht und verdeutlicht die zunehmende Schwierigkeit, ethische Verantwortung und staatliche Anforderungen in der sich schnell entwickelnden Landschaft der künstlichen Intelligenz in Einklang zu bringen.


























