Google a rendu public son détecteur de contenu IA, SynthID, dans l’espoir de résoudre le problème croissant des médias synthétiques. L’outil identifie les images créées par les modèles d’IA de Google à l’aide de filigranes invisibles, mais son utilité est sévèrement limitée par son incapacité à détecter le contenu généré par d’autres plateformes d’IA.
La marée montante du contenu généré par l’IA
La prolifération des outils d’image et de vidéo IA a entraîné une augmentation des deepfakes et des médias synthétiques en ligne. Des outils tels que Sora d’OpenAI et Nano Banana Pro de Google permettent à quiconque de créer facilement du faux contenu réaliste, ce qui rend de plus en plus difficile la distinction entre le matériel authentique et artificiel. Cette escalade pose un défi important à la confiance en ligne et à l’intégrité des informations.
SynthID : une solution partielle
Google a introduit SynthID en 2023, intégrant des filigranes invisibles dans tout le contenu généré par l’IA à partir de ses plateformes. La version publique de SynthID Detector permet aux utilisateurs de télécharger des images sur Gemini et de vérifier si elles ont été créées à l’aide de Google AI. Cependant, l’outil reconnaît uniquement les images provenant des modèles de Google, laissant le contenu provenant d’autres sources non détecté.
L’outil est essentiellement un jardin clos. Il confirme la paternité de l’IA de Google mais ne permet pas de savoir si une image a été générée par un autre programme.
Cette limitation est critique : avec des dizaines de modèles d’IA disponibles, SynthID ne peut pas fournir une évaluation complète du contenu synthétique. Google prévoit d’étendre le détecteur à la vidéo et à l’audio, mais la contrainte fondamentale demeure.
Pourquoi c’est important
L’incapacité à détecter de manière fiable le contenu généré par l’IA a des conséquences considérables. Les campagnes de désinformation, les deepfakes malveillants et l’érosion de la confiance dans les médias numériques sont tous exacerbés par le manque d’outils de détection efficaces. Bien que SynthID soit un pas dans la bonne direction, sa portée étroite met en évidence le défi plus large de la vérification de l’authenticité dans un monde de plus en plus synthétique.
Pour atténuer les risques, les utilisateurs doivent étiqueter le contenu généré par l’IA de manière responsable et aborder les médias en ligne avec scepticisme. Les modèles d’IA générative s’améliorent rapidement, dépassant les capacités de détection actuelles, ce qui rend la vigilance essentielle.

























