Firmy technologiczne Google i Character.AI zmierzają do rozstrzygnięcia kilku procesów sądowych dotyczących krzywdzenia nieletnich, w tym co najmniej jednego przypadku samobójstwa rzekomo powiązanego z interakcjami z chatbotami AI. Ugody, obejmujące sprawy na Florydzie, w Teksasie, Nowym Jorku i Kolorado, potwierdzają ryzyko związane z interakcjami AI z młodymi ludźmi bez nadzoru.
Sprawa Sewella Setzera III
Jeden przypadek ilustruje powagę problemu: 14-letni Sevell Setzer III z Orlando popełnił samobójstwo w lutym 2024 r. po interakcji z usługami chatbota Character.AI. Jego matka, Megan L. Garcia, pozwała firmy, zarzucając im zaniedbania w ochronie bezbronnych użytkowników. Ten przypadek i inne zmotywowały firmy technologiczne do działania.
Zmiany platformy i weryfikacja wieku
W zeszłym roku Character.AI zareagowała, zakazując użytkownikom poniżej 18 roku życia udziału w otwartych rozmowach z chatbotami. Zamiast tego platforma kieruje teraz nastolatków do ustrukturyzowanych narzędzi do opowiadania historii z wykorzystaniem postaci AI. Aby egzekwować te ograniczenia, firma wdrożyła również oprogramowanie określające wiek, choć skuteczność takich systemów pozostaje wątpliwa.
„Istnieje lepszy sposób obsługi nastolatków… To nie musi wyglądać jak chatbot”. – Karandeep Anand, dyrektor generalny Character.AI.
Szersze problemy branżowe
Nie jest to odosobniony przypadek: OpenAI, twórca ChatGPT, również stanął przed procesami sądowymi w podobnych kwestiach. Ogólna tendencja pokazuje, że chatboty AI, choć są potężnymi narzędziami, w przypadku braku odpowiednich środków ostrożności stanowią poważne ryzyko dla dzieci i młodzieży.
Kontekst i implikacje
Wzrost liczby tych przypadków rodzi pytania o odpowiedzialność firm technologicznych za moderowanie interakcji AI. Podczas gdy twórcy sztucznej inteligencji wprowadzają nowe funkcje i możliwości, branża stoi obecnie pod silną presją, aby priorytetowo traktować bezpieczeństwo użytkowników, zwłaszcza nieletnich. Ta konsekwencja prawna prawdopodobnie przyspieszy wezwania do bardziej rygorystycznych przepisów dotyczących chatbotów AI i lepszego egzekwowania środków weryfikacji wieku.
Ugody pomiędzy Google, Character.AI i powodowami stanowią ważny krok w kierunku zapewnienia odpowiedzialności w ewoluującym krajobrazie technologii sztucznej inteligencji. Toczące się postępowania sądowe będą w dalszym ciągu kształtować sposób, w jaki firmy technologiczne chronią bezbronnych użytkowników przed ryzykiem niekontrolowanych interakcji ze sztuczną inteligencją.

























