Защита цифрового контента развивается примерно по одному сценарию: в индустрии придумывают некий замок, а пользователи находят к нему уникальный подход и взламывают. Иногда дольше, как в случае с Denuvo, иногда быстрее. Точно так же компании пытаются отметить сгенерированный ИИ-контент своих площадок - с помощью невидимых водяных знаков вроде SynthID. И если на бумаге такая защита выглядит надёжно, выдерживая фильтры, ресайз, сжатие и другие манипуляции с контентом, то на практике ключ к замку энтузиасты нашли очень быстро.
Разработчик сгенерировал через нейросеть монохромные фоны, на которых скрытый шум SynthID фиксируется без помех от самой картинки. Оказалось, что алгоритм меняет свой принт в зависимости от разрешения и формата изображения. Исследователь собрал базу этих паттернов и написал скрипт, который вычитает нужный шум из файла. Заявленным результатом стал обход защиты без потери качества.
Значит ли это, что дипфейки победили, а ИИ-контент больше нельзя распознать? Совсем нет. Скрипт с GitHub нестабилен, не всегда работает на новых версиях моделей и требует постоянного ручного пополнения базы. По сути, SynthID столкнулся с классической проблемой любой DRM-защиты: алгоритм, рассчитанный на защиту от массового пользователя, ожидаемо не выдержал направленного реверс-инжиниринга.
Стало окончательно понятно, что защита контента, основанная только на манипуляциях с пикселями, не прокатит и понадобятся новые дополнительные инструменты. Отрасль уже начала смещать фокус на C2PA - криптографически подписанные метаданные и платформенную верификацию, где ставка делается на проверяемую цепочку происхождения файла.