Anthropic heeft een “automatische modus” geïntroduceerd voor zijn AI-coderingstool, Claude Code, met als doel een evenwicht te vinden tussen volledig gecontroleerde werking en ongecontroleerde autonomie. Met deze functie kan de AI onafhankelijk taken namens gebruikers uitvoeren en tegelijkertijd de risico’s van onbedoelde of kwaadwillige acties beperken.
De kloof tussen controle en vrijheid overbruggen
De kernuitdaging met autonome AI-tools is het beheren van de afweging tussen bruikbaarheid en veiligheid. Voorheen moesten ontwikkelaars de AI bij elke stap op microniveau beheren (waardoor de bruikbaarheid ervan werd beperkt) of brede rechten verlenen (met het risico op datalekken, onbedoelde verwijderingen of zelfs het uitvoeren van schadelijke code). De automatische modus probeert dit dilemma op te lossen.
Het nieuwe systeem werkt door potentieel gevaarlijke acties automatisch te markeren voordat ze plaatsvinden. Als Claude Code iets riskant probeert, zal de functie de actie volledig blokkeren of de AI ertoe aanzetten zijn aanpak opnieuw te evalueren. In sommige gevallen kan het de gebruiker om tussenkomst vragen. Deze aanpak biedt ontwikkelaars een veiliger middenweg.
Beperkte uitrol en aanhoudende risico’s
Momenteel is de automatische modus exclusief beschikbaar als onderzoeksvoorbeeld voor gebruikers met het Anthropic Team-abonnement. De verwachting is dat de toegang in de nabije toekomst zal worden uitgebreid naar Enterprise- en API-gebruikers. Anthropic maakt echter duidelijk dat deze functie nog experimenteel is en geen volledige veiligheid garandeert.
Het bedrijf raadt aan de automatische modus te testen in ‘geïsoleerde omgevingen’ – dat wil zeggen ontwikkelingsruimten in een sandbox waar accidentele schade wordt beperkt. Dit suggereert dat het risico, hoewel verminderd, reëel blijft. Ontwikkelaars moeten voorzichtig te werk gaan, vooral bij het integreren van Claude Code in productiesystemen.
“De automatische modus elimineert de risico’s niet volledig; het is een stap in de richting van een veiligere AI-autonomie, maar waakzaamheid en testen blijven cruciaal.”
De stap van Anthropic weerspiegelt de bredere druk van de industrie om AI-tools krachtiger en toch verantwoordelijker te maken. De automatische aanpak – waarbij AI de ruimte krijgt om te werken, maar met ingebouwde vangrails – zou een standaardpraktijk kunnen worden naarmate AI verder wordt geïntegreerd in kritische workflows.
























