Il codice Claude di Anthropic ottiene una nuova “modalità automatica” per un’autonomia dell’IA più sicura

Anthropic ha introdotto una “modalità automatica” per il suo strumento di codifica AI, Claude Code, con l’obiettivo di trovare un equilibrio tra funzionamento completamente controllato e autonomia incontrollata. Questa funzionalità consente all’intelligenza artificiale di eseguire attività in modo indipendente per conto degli utenti, mitigando al tempo stesso i rischi di azioni involontarie o dannose.

Colmare il divario tra controllo e libertà

La sfida principale con gli strumenti di intelligenza artificiale autonomi è gestire il compromesso tra usabilità e sicurezza. In precedenza, gli sviluppatori dovevano microgestire ogni passaggio dell’IA (limitandone l’utilità) o concederle ampi permessi (rischiando fughe di dati, eliminazioni accidentali o persino esecuzione di codici dannosi). La modalità automatica cerca di risolvere questo dilemma.

Il nuovo sistema funziona segnalando automaticamente le azioni potenzialmente pericolose prima che si verifichino. Se Claude Code tenta qualcosa di rischioso, la funzionalità bloccherà completamente l’azione o spingerà l’IA a rivalutare il suo approccio. In alcuni casi, potrebbe richiedere l’intervento dell’utente. Questo approccio offre agli sviluppatori una via di mezzo più sicura.

Implementazione limitata e rischi continui

Attualmente, la modalità automatica è disponibile come anteprima della ricerca esclusivamente per gli utenti del piano Team di Anthropic. Si prevede che l’accesso verrà esteso agli utenti Enterprise e API nel prossimo futuro. Tuttavia, Anthropic chiarisce che questa funzionalità è ancora sperimentale e non garantisce la completa sicurezza.

L’azienda consiglia di testare la modalità automatica in “ambienti isolati”, ovvero spazi di sviluppo sandbox in cui sono contenuti i danni accidentali. Ciò suggerisce che il rischio, sebbene ridotto, rimane reale. Gli sviluppatori dovrebbero procedere con cautela, soprattutto quando integrano Claude Code nei sistemi di produzione.

“La modalità automatica non elimina del tutto il rischio; è un passo verso un’autonomia dell’IA più sicura, ma la vigilanza e i test rimangono cruciali.”

La mossa di Anthropic riflette la più ampia spinta del settore a rendere gli strumenti di intelligenza artificiale più potenti ma allo stesso tempo responsabili. L’approccio in modalità automatica, in cui all’intelligenza artificiale viene concesso spazio per operare, ma con barriere integrate, potrebbe diventare una pratica standard man mano che l’intelligenza artificiale viene ulteriormente integrata nei flussi di lavoro critici.