Google telah merilis pendeteksi konten AI-nya, SynthID, ke publik, dengan harapan dapat mengatasi masalah media sintetis yang semakin meningkat. Alat ini mengidentifikasi gambar yang dibuat oleh model AI Google menggunakan tanda air yang tidak terlihat, namun kegunaannya sangat terbatas karena ketidakmampuannya mendeteksi konten yang dihasilkan oleh platform AI lainnya.
Meningkatnya Gelombang Konten Buatan AI
Perkembangan alat gambar dan video AI telah menyebabkan lonjakan deepfake dan media sintetis online. Alat seperti Sora OpenAI dan Nano Banana Pro milik Google memungkinkan siapa pun membuat konten palsu yang realistis dengan mudah, sehingga semakin sulit membedakan antara materi asli dan buatan. Eskalasi ini menimbulkan tantangan signifikan terhadap kepercayaan online dan integritas informasi.
SynthID: Solusi Parsial
Google memperkenalkan SynthID pada tahun 2023, menyematkan tanda air yang tidak terlihat ke semua konten yang dihasilkan AI dari platformnya. Rilis publik SynthID Detector memungkinkan pengguna mengunggah gambar ke Gemini dan memeriksa apakah gambar tersebut dibuat menggunakan Google AI. Namun, alat tersebut hanya mengenali gambar yang berasal dari model Google, sehingga konten dari sumber lain tidak terdeteksi.
Alat ini pada dasarnya adalah taman bertembok. Ini mengonfirmasi kepengarangan AI Google tetapi tidak memberikan informasi apakah suatu gambar dihasilkan oleh program lain.
Batasan ini sangat penting: dengan lusinan model AI yang tersedia, SynthID tidak dapat memberikan penilaian komprehensif terhadap konten sintetis. Google berencana memperluas pendeteksinya ke video dan audio, namun kendala mendasar tetap ada.
Mengapa Ini Penting
Ketidakmampuan untuk mendeteksi konten yang dihasilkan AI secara andal mempunyai konsekuensi yang luas. Kampanye misinformasi, deepfake yang berbahaya, dan terkikisnya kepercayaan terhadap media digital semuanya diperburuk oleh kurangnya alat deteksi yang efektif. Meskipun SynthID merupakan langkah ke arah yang benar, cakupannya yang sempit menyoroti tantangan yang lebih luas dalam memverifikasi keaslian di dunia yang semakin sintetis.
Untuk memitigasi risiko, pengguna harus memberi label pada konten yang dihasilkan AI secara bertanggung jawab dan mendekati media online dengan sikap skeptis. Model AI generatif berkembang pesat, melampaui kemampuan deteksi saat ini, sehingga kewaspadaan menjadi penting.

























