Le società tecnologiche Google e Character.AI si stanno muovendo per risolvere molteplici cause legali derivanti da danni a minori, incluso almeno un suicidio, presumibilmente connesso alle interazioni con chatbot di intelligenza artificiale. Gli accordi, che abbracciano casi in Florida, Texas, New York e Colorado, riconoscono i rischi di un coinvolgimento dell’IA senza supervisione con i giovani.

Il caso di Sewell Setzer III

Un caso evidenzia la gravità del problema: Sewell Setzer III, un quattordicenne di Orlando, si è tolto la vita nel febbraio 2024 dopo aver interagito con i servizi chatbot di Character.AI. Sua madre, Megan L. Garcia, ha intentato una causa contro le società, accusando negligenza nella protezione degli utenti vulnerabili. Questo caso, insieme ad altri, ha spinto le aziende tecnologiche ad agire.

Modifiche alla piattaforma e verifica dell’età

L’anno scorso, Character.AI ha risposto vietando agli utenti sotto i 18 anni di effettuare conversazioni aperte su chatbot. Invece, la piattaforma ora indirizza gli adolescenti verso strumenti di narrazione strutturati utilizzando personaggi AI. L’azienda ha inoltre implementato un software di rilevamento dell’età per far rispettare queste restrizioni, sebbene l’efficacia di tali sistemi rimanga una preoccupazione.

“C’è un modo migliore per servire gli utenti adolescenti… Non deve sembrare un chatbot.” – Karandeep Anand, CEO di Character.AI

Preoccupazioni più ampie del settore

Questo non è un incidente isolato: anche OpenAI, il creatore di ChatGPT, ha dovuto affrontare azioni legali per questioni simili. La tendenza più ampia suggerisce che i chatbot basati sull’intelligenza artificiale, pur essendo strumenti potenti, presentano rischi significativi per bambini e adolescenti senza adeguate garanzie.

Contesto e implicazioni

L’aumento di questi casi solleva interrogativi sulle responsabilità delle aziende tecnologiche nel moderare le interazioni con l’intelligenza artificiale. Mentre gli sviluppatori di intelligenza artificiale stanno portando avanti nuove funzionalità e capacità, il settore si trova ora ad affrontare una forte pressione per dare priorità alla sicurezza degli utenti, soprattutto dei minori. Questa ricaduta legale probabilmente accelererà le richieste di una regolamentazione più rigorosa dei chatbot basati sull’intelligenza artificiale e di una migliore applicazione delle misure di verifica dell’età.

Gli accordi tra Google, Character.AI e i querelanti rappresentano un passo importante verso la responsabilità nel panorama in evoluzione della tecnologia AI. Le battaglie legali in corso continueranno a modellare il modo in cui le aziende tecnologiche proteggono gli utenti vulnerabili dai rischi di un coinvolgimento incontrollato dell’IA.