Anthropic, la società di intelligenza artificiale dietro il chatbot Claude, inizierà ad addebitare agli abbonati a Claude Code costi aggiuntivi per l’utilizzo di strumenti di terze parti come OpenClaw. A partire dal 4 aprile, l’utilizzo tramite questi “cablaggi” non sarà più incluso negli abbonamenti Claude standard e richiederà invece la fatturazione a consumo.
Cambiamento di politica e motivazione
Il cambiamento, annunciato tramite e-mail al cliente e confermato dal capo di Claude Code di Anthropic, Boris Cherny, è guidato da modelli di utilizzo insostenibili. Secondo Cherny, gli attuali modelli di abbonamento non sono stati progettati per soddisfare le richieste di risorse di queste applicazioni di terze parti. L’azienda afferma di dover gestire la crescita in modo responsabile per garantire la qualità del servizio a lungo termine.
Connessione OpenClaw e OpenAI
Questa mossa segue Peter Steinberger, il creatore di OpenClaw, che annuncia la sua partenza per OpenAI. OpenClaw continuerà come progetto open source con il supporto di OpenAI. Steinberger sostiene che Anthropic abbia deliberatamente ritardato questa modifica dei prezzi fino a dopo la sua partenza, sostenendo di aver prima copiato le popolari funzionalità di OpenClaw nel proprio strumento closed source prima di limitarne l’accesso.
La risposta di Anthropic
Cherny contesta queste affermazioni, affermando che Anthropic continua a sostenere le iniziative open source. Indica come prova i recenti contributi forniti dal team di Claude per migliorare l’efficienza della memorizzazione nella cache di OpenClaw. Anthropic offrirà rimborsi completi agli abbonati ignari delle limitazioni esistenti. L’azienda sottolinea che si tratta di una questione tecnica, non di un tentativo deliberato di soffocare lo sviluppo open source.
Il punto chiave : Anthropic sta restringendo l’accesso a strumenti di terze parti su Claude Code a causa di vincoli di risorse, una decisione accelerata dal creatore di OpenClaw che si unisce al concorrente OpenAI. Questo cambiamento segnala una tendenza più ampia verso un controllo più rigoroso sul modo in cui i modelli di intelligenza artificiale vengono integrati con le applicazioni esterne.

























