Google ha rilasciato al pubblico il suo rilevatore di contenuti AI, SynthID, sperando di affrontare il crescente problema dei media sintetici. Lo strumento identifica le immagini create dai modelli di intelligenza artificiale di Google utilizzando filigrane invisibili, ma la sua utilità è fortemente limitata dalla sua incapacità di rilevare contenuti generati da altre piattaforme di intelligenza artificiale.
La marea crescente dei contenuti generati dall’intelligenza artificiale
La proliferazione di strumenti di intelligenza artificiale per immagini e video ha portato a un’impennata dei deepfake e dei media sintetici online. Strumenti come Sora di OpenAI e Nano Banana Pro di Google consentono a chiunque di creare facilmente contenuti falsi realistici, rendendo sempre più difficile distinguere tra materiale autentico e artificiale. Questa escalation rappresenta una sfida significativa per la fiducia online e l’integrità delle informazioni.
SynthID: una soluzione parziale
Google ha introdotto SynthID nel 2023, incorporando filigrane invisibili in tutti i contenuti generati dall’intelligenza artificiale dalle sue piattaforme. Il rilascio pubblico di SynthID Detector consente agli utenti di caricare immagini su Gemini e verificare se sono state create utilizzando Google AI. Tuttavia, lo strumento riconosce solo le immagini provenienti dai modelli di Google, lasciando inosservati i contenuti provenienti da altre fonti.
Lo strumento è essenzialmente un giardino recintato. Conferma la paternità dell’intelligenza artificiale di Google ma non fornisce informazioni sul fatto che un’immagine sia stata generata da un altro programma.
Questa limitazione è fondamentale: con dozzine di modelli di intelligenza artificiale disponibili, SynthID non può fornire una valutazione completa del contenuto sintetico. Google prevede di espandere il rilevatore a video e audio, ma il vincolo fondamentale rimane.
Perché è importante
L’incapacità di rilevare in modo affidabile i contenuti generati dall’intelligenza artificiale ha conseguenze di vasta portata. Campagne di disinformazione, deepfake dannosi e erosione della fiducia nei media digitali sono tutti esacerbati dalla mancanza di strumenti di rilevamento efficaci. Sebbene SynthID sia un passo nella giusta direzione, il suo ambito ristretto evidenzia la sfida più ampia di verificare l’autenticità in un mondo sempre più sintetico.
Per mitigare i rischi, gli utenti dovrebbero etichettare i contenuti generati dall’intelligenza artificiale in modo responsabile e avvicinarsi ai media online con scetticismo. I modelli di intelligenza artificiale generativa stanno migliorando rapidamente, superando le attuali capacità di rilevamento, rendendo la vigilanza essenziale.

























