Technologické společnosti Google a Character.AI se chystají urovnat několik soudních sporů s údajným poškozováním nezletilých, včetně nejméně jednoho případu sebevraždy údajně spojeného s interakcí s chatboty AI. Urovnání, která zahrnují případy na Floridě, Texasu, New Yorku a Coloradu, uznávají rizika interakcí AI bez dozoru s mladými lidmi.

Případ Sewella Setzera III

Jeden případ ilustruje závažnost problému: 14letý Sevell Setzer III z Orlanda spáchal sebevraždu v únoru 2024 po interakci se službami chatbota Character.AI. Jeho matka Megan L. Garciaová zažalovala společnosti a obvinila je z nedbalosti při ochraně zranitelných uživatelů. Tento případ spolu s dalšími podnítil technologické firmy k akci.

Změny platformy a ověření věku

V loňském roce Character.AI zareagovala tím, že uživatelům mladším 18 let zakázala účastnit se otevřených konverzací s chatboty. Místo toho nyní tato platforma směřuje dospívající ke strukturovaným nástrojům pro vyprávění příběhů pomocí postav AI. Společnost také implementovala software určující věk k vynucení těchto omezení, ačkoli účinnost takových systémů zůstává sporná.

“Existuje lepší způsob, jak sloužit dospívajícím… Nemusí to vypadat jako chatbot.” – Karandeep Anand, CEO, Character.AI.

Širší oborové problémy

Toto není ojedinělý případ: OpenAI, tvůrce ChatGPT, také čelil soudním sporům kvůli podobným problémům. Obecný trend ukazuje, že chatboti s umělou inteligencí, přestože jsou výkonné nástroje, představují pro děti a dospívající bez náležitých opatření značná rizika.

Kontext a důsledky

Nárůst těchto případů vyvolává otázky ohledně odpovědnosti technologických společností za moderování interakcí AI. Zatímco vývojáři umělé inteligence prosazují nové funkce a možnosti, odvětví nyní čelí intenzivnímu tlaku na upřednostňování bezpečnosti uživatelů, zejména nezletilých. Tento právní důsledek pravděpodobně urychlí volání po přísnější regulaci chatbotů s umělou inteligencí a lepší prosazování opatření na ověřování věku.

Vyrovnání mezi Googlem, Character.AI a žalobci představuje důležitý krok k zajištění odpovědnosti v rozvíjejícím se prostředí technologií AI. Probíhající soudní spory budou i nadále určovat, jak technologické společnosti chrání zranitelné uživatele před riziky nekontrolovaných interakcí s AI.