
Речь не о запрете на использование ИИ как такового. Если нейросеть помогла улучшить сюжет или монтаж, то проблем нет. А вот если ролик полностью сгенерирован, озвучен ботом и собран из случайных картинок — это уже «мусор». Пока речь только о лишении монетизации — но, кажется, проблема куда глубже.
Создавать ИИ-контент стало слишком легко. После выхода Veo 3 видео с рыдающим дедушкой, которого бросили внуки, и просьбой «поставить лайк, если ты хочешь поддержать деда» можно штамповать десятками за минуты. Кто-то продвигает через генеративный контент скам сайты, кто-то секс-чаты, кто-то просто фармит трафик, запуская десятки одинаковых каналов и зарабатывая на монетизации.
Генерятся голос, эмоции, сценарий — а смотрят это реальные пользователи. И вот тут рекламная модель Ютуба даёт сбой. Потому что записать видео вживую и сгенерировать его — это совершенно разные трудозатраты. ИИ-ролики заполняют платформу, вытесняют пользовательский контент, снижают релевантность алгоритмов платформы и забирают рекламные деньги.
Возникает логичный вопрос: почему YouTube не принимал меры раньше? Раньше проблема не была такой острой (спасибо Veo 3, которая была обучена на видео с YouTube). Самое смешное, что платформа сама дала авторам инструменты по генерации видео — добавив их в Shorts.
Нормальных инструментов модерации подобного контента не существует. Вручную отсматривать ролики не получится, надёжных детекторов тоже нет. И это опасный момент — потому что до сих пор не понятно, как именно платформа будет решать, какому ролику оставить монетизацию, а какому — нет. Граница между мусорным контентом и творчеством — тонкая. А вот последствия для добросовестных авторов могут быть вполне осязаемыми.