Google udostępniło społeczeństwu swój detektor sztucznej inteligencji SynthID w nadziei na rozwiązanie rosnącego problemu mediów syntetycznych. Narzędzie identyfikuje obrazy wygenerowane przez modele sztucznej inteligencji Google za pomocą niewidocznych znaków wodnych, ale jego użyteczność jest poważnie ograniczona ze względu na brak możliwości wykrycia treści generowanych przez inne platformy sztucznej inteligencji.
Rosnąca fala treści generowanych przez sztuczną inteligencję
Rozpowszechnianie narzędzi sztucznej inteligencji do tworzenia obrazów i filmów doprowadziło do gwałtownego wzrostu liczby deepfakes i mediów syntetycznych w Internecie. Narzędzia takie jak Sora firmy OpenAI i Nano Banana Pro firmy Google ułatwiają każdemu tworzenie realistycznych fałszywych treści, przez co coraz trudniej jest odróżnić materiały oryginalne od sztucznych. Ten wzrost stanowi poważne wyzwanie dla zaufania i integralności informacji w Internecie.
SynthID: Częściowe rozwiązanie
Google wprowadził SynthID w 2023 r., wprowadzając niewidoczne znaki wodne do wszystkich treści generowanych przez sztuczną inteligencję ze swoich platform. Publiczne wydanie SynthID Detector pozwala użytkownikom przesyłać obrazy do Gemini i sprawdzać, czy zostały utworzone przy użyciu sztucznej inteligencji Google. Jednak narzędzie tylko rozpoznaje obrazy uzyskane z modeli Google, pozostawiając niewykryte treści z innych źródeł.
Narzędzie jest zasadniczo systemem zamkniętym. Potwierdza przypisanie sztucznej inteligencji Google, ale nie dostarcza żadnych informacji o tym, czy obraz został wygenerowany przez inny program.
To ograniczenie jest krytyczne: przy dziesiątkach modeli sztucznej inteligencji SynthID nie jest w stanie zapewnić kompleksowej oceny treści syntetycznych. Google planuje rozszerzyć wykrywacz na wideo i audio, ale pozostaje podstawowe ograniczenie.
Dlaczego to jest ważne?
Brak możliwości niezawodnego wykrywania treści generowanych przez sztuczną inteligencję ma daleko idące konsekwencje. Kampanie dezinformacyjne, złośliwe deepfakes i erozja zaufania do mediów cyfrowych pogłębia brak skutecznych narzędzi do wykrywania. Chociaż SynthID to krok we właściwym kierunku, jego wąski zakres uwypukla szersze wyzwanie, jakim jest uwierzytelnianie w coraz bardziej syntetycznym świecie.
Aby zmniejszyć ryzyko, użytkownicy powinni odpowiedzialnie oznaczać treści generowane przez sztuczną inteligencję i podchodzić do mediów internetowych ze sceptycyzmem. Modele generatywnej sztucznej inteligencji udoskonalają się w szybkim tempie, przewyższając obecne możliwości wykrywania, przez co czujność jest niezbędna.

























