De recente botsing tussen het Pentagon, Anthropic en OpenAI over AI-technologie roept serieuze vragen op voor startups die overwegen om met de federale overheid samen te werken. Nog maar enkele weken geleden stapte Anthropic weg van een deal met het Pentagon nadat hij door de regering-Trump als een risico voor de toeleveringsketen werd bestempeld, terwijl OpenAI snel tussenbeide kwam om het gat op te vullen. Deze stap leidde tot onmiddellijke terugslag, waarbij gebruikers ChatGPT verwijderden en Claude van Anthropic naar de top van de app-hitlijsten duwden.
De situatie is ongebruikelijk omdat zowel Anthropic als OpenAI publiekelijk de wens uitspreken voor beperkingen op de manier waarop hun AI wordt gebruikt, terwijl het Pentagon toch probeerde de bestaande contractvoorwaarden te wijzigen – een stap die volgens experts uit de industrie “niet normaal” is gezien de langdurige en rigide aard van overheidsaanbestedingen.
Waarom dit ertoe doet: een veranderend landschap?
Het debat concentreert zich op de ethiek van het inzetten van AI in dodelijke contexten, een factor die veel meer aandacht trekt voor deze spraakmakende bedrijven dan voor traditionele defensiebedrijven als General Motors, dat lange tijd militaire voertuigen heeft geleverd met weinig publieke aandacht. Deze zaak benadrukt een groeiende spanning tussen technologiebedrijven die controle willen over hun producten en de vraag van de overheid naar flexibiliteit in nationale veiligheidstoepassingen.
De spotlight op AI versus traditionele verdediging
In tegenstelling tot veel gevestigde defensieaannemers die onder de radar opereren, produceren OpenAI en Anthropic tools die op grote schaal door het publiek worden gebruikt. Deze zichtbaarheid vergroot hun betrokkenheid bij militaire projecten, waardoor een intense publieke druk ontstaat. Ondertussen kunnen bedrijven als Applied Intuition, die technologie voor tweeërlei gebruik op de markt brengen, minder kritisch worden bekeken, simpelweg omdat hun producten minder bekend zijn.
Persoonlijkheidsconflicten en contractinstabiliteit
Wat de complexiteit nog groter maakte, was dat de persoonlijke vijandigheid tussen de CEO van Anthropic en een hoge functionaris van het Pentagon het geschil zou hebben aangewakkerd. Belangrijker nog is dat de poging van het Pentagon om een bestaand contract te herschrijven een signaal is van een mogelijke verschuiving in de manier waarop de overheid met technologieleveranciers onderhandelt, wat de bezorgdheid doet rijzen dat toekomstige deals onderhevig kunnen zijn aan onvoorspelbare veranderingen.
De stap van OpenAI resulteerde in een stijging van 295% in het aantal verwijderde ChatGPT-verwijderingen, wat de bereidheid van het publiek aantoont om actie te ondernemen op basis van ethische kwesties. Dit incident zou moeten dienen als een waarschuwing voor startups: werken met het Ministerie van Defensie brengt nu een verhoogd risico met zich mee op politieke reacties en onstabiele contractvoorwaarden.
De acties van het Pentagon zijn een duidelijk teken dat gevestigde procedures mogelijk niet langer van toepassing zijn, en bedrijven moeten de mogelijke gevolgen zorgvuldig afwegen voordat ze federale dollars nastreven.


























