DeepSeek становится китайским национальным ИИ DeepSeek становится китайским национальным ИИ Зрители сериалов в онлайн-кинотеатрах задыхаются от рекламы Зрители сериалов в онлайн-кинотеатрах задыхаются от рекламы Китай научился заряжать дроны в небе с помощью микроволнового луча Китай научился заряжать дроны в небе с помощью микроволнового луча Европа заставляет Google отдать самое ценное Европа заставляет Google отдать самое ценное

DeepSeek выпустил крупнейшую открытую нейросеть, которой не нужна Nvidia

🇨🇳 1 мин
Изображение сгенерировано нейросетью ChatGPT

DeepSeek буднично опубликовал сегодня модели четвертого поколения - V4-Pro и V4-Flash. Сенсации уровня прошлогоднего релиза R1 не вышло, но при этом китайские разработчики впервые выложили в открытый доступ такую большую модель. Обе нейросети построены на архитектуре MoE. Старшая версия V4-Pro насчитывает 1,6 триллиона параметров, но при обработке запроса активирует лишь 49 миллиардов, экономя вычисления. Младшая V4-Flash устроена аналогично: 284 миллиарда параметров в базе и 13 миллиардов активных.

При этом в тестах на рассуждения модель отстаёт от флагманов вроде GPT-5.4 и Gemini-3.1-Pro. Широко обсуждаемый контекст в миллион токенов также не значит, что уже завтра любой желающий сможет загрузить на сайт DeepSeek «Войну и мир» без посредника в лице RAG. Такой функционал бесполезен для большей части пользователей и дорого обойдётся разработчикам, поэтому контекст в миллион токенов появился давно, но так и не стал стандартом для массовых сервисов.

Главную ставку компания сделала не на рост условного интеллекта и метрики, а на экономию. Разработчики применили гибридную архитектуру внимания, которая сильно сжимает память модели. V4-Pro требует на 73% меньше вычислительных мощностей и занимает на 90% меньше памяти при обработке миллиона токенов по сравнению с предыдущей моделью DeepSeek-V3.2. Компания научилась значительно дешевле обрабатывать огромные массивы информации.

Такая одержимость экономией возникла не случайно. Модель оптимизирована для эффективной работы на китайском железе - ускорителях Huawei Ascend NPU. Китайцы строят суверенную ИИ-экосистему, где важны низкая себестоимость и независимость от западных комплектующих. Учитывая, что в открытом доступе нет сопоставимых по размеру решений, бизнес за дешевизной пойдет к DeepSeek. А когда компании столкнутся с дефицитом чипов Nvidia и квотами TSMC, на сцене удачно появится железо Huawei. На котором, так вышло, хорошо работает только китайская модель.

// Илья Власов