Главное из мира ИИ за неделю (с 9 по 15 марта 2026 года) – новости и тексты Главное из мира ИИ за неделю (с 9 по 15 марта 2026 года) – новости и тексты ИИ-агент удалил инфраструктуру Amazon и сломал биллинг компании ИИ-агент удалил инфраструктуру Amazon и сломал биллинг компании Читать можно, показывать нельзя: в России разрешат обучать нейросети на пиратском контенте Читать можно, показывать нельзя: в России разрешат обучать нейросети на пиратском контенте Маск переизобрёл ИИ-агента для офиса на деньги Tesla Маск переизобрёл ИИ-агента для офиса на деньги Tesla

Читать можно, показывать нельзя: в России разрешат обучать нейросети на пиратском контенте

Россия 1 мин
Иллюстрация сгенерирована нейросетью Gemini

Правительство России разработало законопроект, который разрешит компаниям обучать искусственный интеллект на защищенных авторским правом материалах без согласия правообладателей. Как сообщают коллеги из Ведомостей, эта норма станет частью нового регулирования отрасли. Суть инициативы такая: чтобы отечественные нейросети могли развиваться и конкурировать, им нужен доступ к большим массивам информации (включая закрытые научные публикации и архивы), объём которых на российском рынке уступает зарубежным платформам.

Главное условие для разработчиков — исходные произведения не должны отображаться в ответах нейросети. Модель может анализировать контент на этапе обучения, но не имеет права выдавать его пользователю по запросу. Как этого добиться — загадка Жака Фреско, на которую законопроект пока ответа не даёт. При этом авторские права на сгенерированный результат закрепляются за человеком, который составил промпт. Использовать чувствительную информацию вроде персональных данных, частной переписки или налоговых сведений, для обучения запрещено.

Мирового стандарта регулирования пока нет. В США компании скачивали данные в серой зоне, а теперь суды разбирают многомиллиардные иски от издательств, определяя границы добросовестного использования. Евросоюз выбрал путь жесткого контроля, обязав разработчиков раскрывать источники данных, но оставив авторам право заявить прямой запрет на использование их произведений (opt-out). Российский подход ближе к азиатской и евразийской моделям. Например, в Сингапуре, Японии и соседнем Казахстане уже приняты законы, которые широко разрешают использовать контент для обучения ИИ, если правообладатель заранее не установил запрет.

Решение кажется вполне обоснованным и логичным: без доступа к большим данным создавать нормальные языковые модели непросто. А правовая неопределенность и риск бесконечных судебных разбирательств не способствуют стабильности ИИ-отрасли и тормозят запуск новых продуктов. Главное только не перестараться с помощью бигтеху и предусмотреть в итоговом законе понятный механизм, который позволит авторам отказываться от участия в обучении нейросетей. А ещё определить ответственность за нарушения со стороны разработчиков, которые, подозреваем, будут.

// Илья Власов