Google heeft vooruitgang geboekt met een belangrijke overeenkomst waardoor het Amerikaanse ministerie van Defensie zijn kunstmatige-intelligentiemodellen voor geheime doeleinden kan gebruiken. Dit besluit komt ondanks sterke interne tegenstand, waarbij honderden werknemers er bij het bedrijf op aandringen militaire toepassingen te vermijden die zij gevaarlijk of niet controleerbaar achten.
De deal, voor het eerst gerapporteerd door The Information, staat het Pentagon toe de AI-tools van Google te gebruiken voor “elk wettig overheidsdoel”, inclusief gevoelige militaire operaties. Door deze overeenkomst aan te gaan sluit Google zich aan bij een groeiende groep technologiegiganten – waaronder OpenAI en xAI – die soortgelijke geheime partnerschappen met het Amerikaanse leger zijn aangegaan.
De reikwijdte en waarborgen van de overeenkomst
Hoewel het contract breed militair gebruik mogelijk maakt, bevat het specifieke beperkingen. In de overeenkomst staat expliciet dat de AI-systemen van Google niet bedoeld zijn voor binnenlandse massasurveillance of voor autonome wapens zonder menselijk toezicht.
De voorwaarden verduidelijken echter ook dat Google niet het recht heeft om een veto uit te spreken over wettige operationele beslissingen van de overheid. Bovendien zal het bedrijf helpen bij het aanpassen van veiligheidsinstellingen en filters op basis van overheidsverzoeken. Een woordvoerder van Google vertelde CNET dat het verlenen van API-toegang tot commerciële modellen onder standaardpraktijken een “verantwoordelijke benadering” is om de nationale veiligheid te ondersteunen, en herhaalde hun engagement tegen autonome wapens zonder toezicht of binnenlands toezicht.
Belangrijke context: Deze verschuiving markeert een afwijking van het eerdere standpunt van Google. In februari heeft Google zijn AI-principes bijgewerkt om te benadrukken dat “democratieën het voortouw moeten nemen bij de ontwikkeling van AI” en dat samenwerking tussen bedrijven en overheden essentieel is voor de bescherming van mensen en het ondersteunen van de nationale veiligheid. Dit vervangt eerdere taal waarin technologieën strikt verboden werden die algemene schade zouden kunnen aanrichten of de mensenrechten zouden schenden.
Intern verzet en historische spanningen
De aankondiging heeft tot aanzienlijke reacties binnen Google geleid. Meer dan 600 werknemers ondertekenden een open brief gericht aan CEO Sundar Pichai, waarin ze het bedrijf opriepen om “te weigeren onze AI-systemen beschikbaar te maken voor geheime werklasten.”
De werknemers stellen dat hun nabijheid tot de technologie een verantwoordelijkheid met zich meebrengt om het meest onethische gebruik ervan te voorkomen. Hun zorgen reiken verder dan dodelijke autonome wapens en massale surveillance; ze zijn bang dat geheim werk de zichtbaarheid wegneemt, waardoor het voor werknemers onmogelijk wordt om te weten hoe of waar de modellen worden ingezet.
Deze spanning weerspiegelt een van de meest prominente interne conflicten van Google: de protesten van 2018 tegen Project Maven, een programma van het Pentagon dat AI gebruikt om dronebeelden te analyseren. Destijds kwamen duizenden werknemers in opstand tegen het contract, waardoor Google uiteindelijk besloot het niet te verlengen. Sindsdien is de houding van het bedrijf tegenover militaire AI aanzienlijk verzacht.
Waarom dit belangrijk is
Deze ontwikkeling roept kritische vragen op over de rol van particuliere technologiebedrijven in de nationale veiligheid en de grenzen van het bedrijfstoezicht.
- Verlies aan transparantie: In tegenstelling tot commerciële toepassingen vindt geclassificeerd militair gebruik in het donker plaats. Werknemers en het publiek kunnen niet controleren hoe deze modellen zich gedragen in echte gevechts- of inlichtingenscenario’s.
- Industrietrend: Nu OpenAI en xAI ook samenwerken met het Pentagon, duidt dit op een bredere sectorverschuiving waarbij grote AI-ontwikkelaars een integraal onderdeel worden van de militaire infrastructuur, waardoor de grens tussen civiele technologische innovatie en defensiecapaciteiten vervaagt.
- Ethisch dilemma: Het kernconflict blijft bestaan: kan een bedrijf beweren dat het zich houdt aan ethische AI-principes en tegelijkertijd instrumenten biedt voor ondoorzichtige, potentieel schadelijke overheidsoperaties?
“We willen dat AI de mensheid ten goede komt, en niet dat het op inhumane of uiterst schadelijke manieren wordt gebruikt”, stelt de open brief, waarmee de diepe morele kloof binnen de beroepsbevolking wordt benadrukt.
Conclusie
Het besluit van Google om samen te werken met het Pentagon voor geheim AI-werk vertegenwoordigt een strategische draai in de richting van samenwerking op het gebied van de nationale veiligheid, waardoor deze op één lijn wordt gebracht met andere grote AI-bedrijven. Deze stap heeft echter opnieuw een intens intern debat aangewakkerd, wat de groeiende moeilijkheid onderstreept om ethische verantwoordelijkheden in evenwicht te brengen met overheidseisen in het snel evoluerende landschap van kunstmatige intelligentie.


























