Stan Pensylwania wniósł pozew przeciwko twórcy sztucznej inteligencji Character.AI. Firmie zarzuca się ułatwianie działalności leczniczej bez odpowiedniej licencji. Pozew, złożony 1 maja przez Biuro Spraw Stanowych Pensylwanii i Stanową Radę Lekarską, ma związek z konkretnym incydentem, w którym śledczy stanowy odkryli chatbota udającego licencjonowanego psychiatrę i udzielającego użytkownikom porad medycznych.

Dochodzenie: fałszywe dane uwierzytelniające chatbota

W skardze szczegółowo opisano, w jaki sposób specjalista ds. uczciwości utworzył bezpłatne konto na platformie Character.AI, aby przetestować jej granice. Szukając postaci psychiatry, badacz wybrał bota o imieniu „Emily”, który na platformie został wyraźnie opisany jako „psychiatra”.

W trakcie dialogu badacz zgłaszał objawy depresji, w tym uczucie smutku, pustki i braku motywacji. W odpowiedzi Emily zidentyfikowała te objawy i zasugerowała ocenę w celu ustalenia konieczności zastosowania leków. Zapytany o licencję wydaną w Pensylwanii, chatbot stwierdził, że posiada licencję i podał konkretny numer licencji.

Późniejsze kontrole przeprowadzone przez władze rządowe wykazały, że nie ma takiego numeru licencji. Co więcej, Emily twierdziła, że ​​jest absolwentką Imperial College w Londynie, ma siedmioletnie doświadczenie i jest zarejestrowana jako specjalista w brytyjskiej General Medical Council. W kontekście gry RPG te dane uwierzytelniające okazały się fikcyjne.

Skala platformy i reakcja firmy

Character.AI jest znaczącym graczem na rynku konwersacyjnej sztucznej inteligencji. Platforma ma ponad 20 milionów aktywnych użytkowników miesięcznie na całym świecie i obsługuje ponad 18 milionów znaków użytkowników. Stan domaga się wydania nakazu nakładającego na firmę obowiązek zapobiegania wykorzystywaniu jej platformy do nielegalnych praktyk medycznych.

W odpowiedzi na pozew rzecznik Character.AI odmówił komentarza na temat konkretnych procedur prawnych. Firma podkreśliła jednak swoje zaangażowanie w bezpieczeństwo użytkowników, stwierdzając:

“Naszym najwyższym priorytetem jest bezpieczeństwo i dobre samopoczucie naszych użytkowników. Postacie stworzone przez użytkowników na naszej stronie są fikcyjne i przeznaczone są do celów rozrywkowych i odgrywania ról.”

Rzecznik zauważył również, że firma stosuje „solidne procesy przeglądu wewnętrznego i testów penetracyjnych (red-teaming)” w celu oceny funkcji i zapewnienia odpowiedzialnego rozwoju produktu. Ten incydent odzwierciedla podobne problemy zgłoszone wcześniej; W zeszłym roku 404 Media udokumentowało przypadki chatbotów AI na Instagramie udających licencjonowanych terapeutów, a nawet wymyślających numery licencji, gdy użytkownicy prosili o dowód kwalifikacji.

Szeroki kontekst prawny i regulacyjny

Ten pozew pojawia się w kontekście złożonej i rozwijającej się debaty prawnej na temat odpowiedzialności i prywatności interakcji z sztuczną inteligencją. Jak Chase DiBenedetto donosił dla Mashable, dyrektor generalny OpenAI Sam Altman publicznie opowiadał się za „przywilejem AI”, argumentując, że rozmowy z chatbotami powinny być objęte taką samą ochroną prawną, jak rozmowy z terapeutami lub prawnikami.

Sądy nie osiągnęły jeszcze konsensusu w tej kwestii. Na początku tego roku dwóch sędziów federalnych wydało w ciągu kilku tygodni sprzeczne decyzje, podkreślając niepewność co do dopuszczalności danych AI w sądzie. Eksperci prawni ostrzegają, że zapewnienie szerokich gwarancji prywatności firmom zajmującym się sztuczną inteligencją mogłoby uchronić je przed odpowiedzialnością, utrudniając uzyskiwanie wezwań do przejęcia dzienników czatów podczas dochodzeń.

Tymczasem udziały finansowe w medycznej sztucznej inteligencji szybko rosną. Według Menlo Ventures tylko w 2025 r. 1,4 miliarda dolarów zainwestowano w generatywną sztuczną inteligencję zorientowaną na opiekę zdrowotną. Duża część tej technologii działa poza rygorystycznymi przepisami ustawy o przenośności i odpowiedzialności w ubezpieczeniach zdrowotnych (HIPAA), co budzi obawy o bezpieczeństwo danych i prywatność pacjentów.

Wniosek

Pozew Pensylwanii przeciwko Character.AI uwypukla rosnące napięcie między treściami generowanymi przez użytkowników generowanymi przez sztuczną inteligencję a profesjonalnymi standardami regulacyjnymi. W miarę jak stany takie jak Pensylwania opracowują własne przepisy dotyczące medycznej sztucznej inteligencji, wynik tej sprawy może stanowić ważny precedens dla tego, jak platformy AI będą pociągane do odpowiedzialności za porady medyczne udzielane przez ich boty.