Kontrowersyjna aplikacja mobilna Neon, która płaci użytkownikom za nagrywanie rozmów telefonicznych w celu szkolenia sztucznej inteligencji, ogłosiła swoje wznowienie pomimo niedawnego poważnego naruszenia bezpieczeństwa danych. Założyciel Alex Kiam wysłał we wtorek e-mail do użytkowników, zapewniając ich, że zgromadzone zarobki zostaną wypłacone – z dodatkową premią za cierpliwość – po wznowieniu usługi.
Kontrowersyjny model zastosowania: Neon zyskał popularność dzięki zachętom finansowym za nagrywanie rozmów. Użytkownicy mogą zarobić do 30 dolarów dziennie na zwykłych połączeniach lub 30 centów za minutę na połączeniach z innymi użytkownikami Neon. Model biznesowy aplikacji opiera się na sprzedaży anonimowych danych połączeń firmom AI, które potrzebują próbek prawdziwej mowy. Zebrane dane służą do ulepszania asystentów głosowych poprzez wychwytywanie niuansów (takich jak synchronizacja, słowa uzupełniające i emocje), które często są pomijane podczas korzystania z danych syntetycznych do celów szkoleniowych.
Wyciek danych i tymczasowe zamknięcie: Aplikacja została zmuszona do zamknięcia pod koniec września po tym, jak TechCrunch odkrył lukę w zabezpieczeniach, która umożliwiała nieautoryzowany dostęp do zapisów rozmów, transkrypcji i metadanych innych użytkowników. Kiam potwierdził lukę i tymczasowo zamknął serwery, obiecując wdrożenie dodatkowych środków bezpieczeństwa. Użytkownicy chwilowo nie mogli wypłacić środków, chociaż Kiam zapewniał ich, że ich zarobki zostaną zaoszczędzone.
Kwestie prawne i etyczne: Neon działa w szarej strefie przepisów dotyczących prywatności. Warunki korzystania z aplikacji przyznają jej szerokie prawa do „sprzedaży, używania, hostowania, przechowywania, przesyłania” i publicznego wyświetlania nagrań. Eksperci ostrzegają, że legalność takich nagrań różni się znacznie w zależności od jurysdykcji. Niektóre stany (w tym Kalifornia, Floryda i Maryland) wymagają zgody wszystkich stron podczas połączenia, co oznacza, że użytkownicy Neon mogą ponieść konsekwencje prawne za nieprzestrzeganie tych zasad.
Szkolenia dotyczące prywatności danych i sztucznej inteligencji: eksperci zauważają, że nawet w przypadku anonimizacji sztuczna inteligencja może potencjalnie ponownie identyfikować osoby na nagraniach rozmów. Ekspert ds. zarządzania danymi Valence Howden wyjaśnia, że modele sztucznej inteligencji mogą wyciągać dane osobowe nawet na podstawie danych anonimowych. Rodzi to obawy dotyczące zgodności aplikacji z przepisami dotyczącymi prywatności, zwłaszcza w jurysdykcjach, w których obowiązują bardziej rygorystyczne przepisy dotyczące zgody.
Ryzyko dla użytkowników: Prawnik David Hoppe ostrzega, że warunki korzystania z usługi Neon nie chronią użytkowników przed odpowiedzialnością. Nagrywanie rozmowy w jurysdykcji wymagającej zgody obu stron bez powiadamiania drugiej strony może skutkować oskarżeniem karnym lub roszczeniami cywilnymi. Struktura motywacyjna aplikacji (płatność użytkownikom za posty) nie zmniejsza ryzyka prawnego.
Neon jest nadal dostępny na iOS i Androida, chociaż jego oceny spadły ze względu na raporty użytkowników dotyczące problemów z wypłatą i zarzutów o oszustwo. Zbliżające się ponowne uruchomienie aplikacji uwypukla napięcie między monetyzacją danych a prywatnością, zmuszając użytkowników do rozważenia korzyści finansowych z potencjalnymi konsekwencjami prawnymi i etycznymi.
Przyszłość Neona pozostaje niepewna, ale jedno jest jasne: model aplikacji przesuwa granice prywatności i zgody, zmuszając użytkowników do poruszania się po złożonym krajobrazie prawnym, narażając się jednocześnie na ryzyko.

























