Google выпустила свой AI-детектор, SynthID, в общий доступ, надеясь решить растущую проблему синтетических медиа. Инструмент определяет изображения, созданные AI-моделями Google, с помощью невидимых водяных знаков, но его полезность серьезно ограничена неспособностью обнаруживать контент, сгенерированный другими AI-платформами.

Растущая волна AI-генерируемого контента

Распространение AI-инструментов для создания изображений и видео привело к резкому увеличению числа дипфейков и синтетических медиа в сети. Инструменты, такие как Sora от OpenAI и Nano Banana Pro от Google, позволяют любому с легкостью создавать реалистичный поддельный контент, что все больше затрудняет различие между подлинными и искусственными материалами. Этот всплеск представляет собой серьезный вызов для доверия в интернете и целостности информации.

SynthID: Частичное решение

Google представила SynthID в 2023 году, внедряя невидимые водяные знаки во весь AI-генерируемый контент со своих платформ. Публичный релиз SynthID Detector позволяет пользователям загружать изображения в Gemini и проверять, были ли они созданы с использованием AI от Google. Однако инструмент распознает только изображения, полученные из моделей Google, оставляя контент из других источников незамеченным.

Инструмент по сути представляет собой закрытую систему. Он подтверждает авторство AI от Google, но не дает никакой информации о том, было ли изображение сгенерировано другой программой.

Это ограничение критично: при наличии десятков AI-моделей SynthID не может обеспечить всестороннюю оценку синтетического контента. Google планирует расширить детектор на видео и аудио, но фундаментальное ограничение остается.

Почему это важно

Неспособность надежно обнаруживать AI-генерируемый контент имеет далеко идущие последствия. Дезинформационные кампании, злонамеренные дипфейки и подрыв доверия к цифровым медиа усугубляются отсутствием эффективных инструментов обнаружения. Хотя SynthID — это шаг в правильном направлении, его узкий охват подчеркивает более широкую проблему проверки подлинности в все более синтетическом мире.

Чтобы снизить риски, пользователи должны ответственно маркировать AI-генерируемый контент и относиться к онлайн-медиа со скептицизмом. Генеративные AI-модели улучшаются быстрыми темпами, опережая текущие возможности обнаружения, что делает бдительность необходимой.