24 апреля 2026 года DeepSeek опубликовала превью-версии двух моделей серии V4 — DeepSeek-V4-Pro и DeepSeek-V4-Flash. Обе поддерживают контекстное окно до 1 миллиона токенов и распространяются под лицензией MIT, то есть любой может загрузить, модифицировать и развернуть их коммерчески.
Что внутри
V4-Pro — это 1,6 триллиона параметров при 49 миллиардах активных. Flash — 284 миллиарда общих и 13 миллиардов активных. Обе построены на архитектуре Mixture-of-Experts: модель не активирует все параметры одновременно, что позволяет значительно снизить стоимость инференса. По данным Hugging Face, в сценарии с контекстом в 1 млн токенов V4-Pro требует всего 27% от вычислительных затрат DeepSeek-V3.2 и 10% от размера KV-кеша предшественника.
Технически это достигается благодаря гибридному вниманию — комбинации Compressed Sparse Attention и Heavily Compressed Attention, которая существенно повышает эффективность на длинных контекстах. Для разработчика или аналитика это означает, что модель может обработать роман, кодовую базу или корпус документов в одном запросе.
Бенчмарки: где обгоняет, где уступает
На практике V4-Pro превосходит Claude Opus 4.6 на Terminal-Bench 2.0 (67,9% против 65,4%) — бенчмарке реального автономного выполнения команд с трёхчасовым тайм-аутом — и уверенно лидирует на LiveCodeBench (93,5% против 88,8%). В то же время, по данным buildfastwithai.com, Claude сохраняет преимущество на SWE-bench Verified (80,8% против 80,6%) и более существенное — в тестах фактологической точности HLE и математическом HMMT 2026.
«V4 обеспечивает производительность класса GPT-5 приблизительно за 1/10 цены»
NxCode, аналитический обзор ценовой политики DeepSeek API, апрель 2026
По словам независимого исследователя Саймона Вилисона, который протестировал обе модели через OpenRouter, V4-Pro является крупнейшей открытой моделью на сегодняшний день — больше, чем Kimi K2.6 (1,1T) и GLM-5.1 (754B) и вдвое больше, чем предыдущий DeepSeek V3.2 (685B).
Цена, которая меняет уравнение
DeepSeek установила следующие тарифы API: Flash — $0,14 за миллион токенов на входе и $0,28 на выходе; Pro — $1,74 и $3,48 соответственно. Для сравнения: V4-Flash стоит в 12,4 раза дешевле, чем Pro, при том что на SWE-bench Verified отстает всего на 1,6 процентного пункта (79,0% против 80,6%).
Для компании, которая строит агентный воркфлоу — например, автоматизированный code review или анализ тысяч документов ежедневно, — разница в стоимости токенов является не академическим вопросом, а статьей бюджета. Аналитики NxCode подсчитали, что R1 от DeepSeek обходится в 27 раз дешевле, чем аналогичная reasoning-модель от OpenAI. V4 продолжает эту логику.
Брукингский институт ещё в начале 2025 года, после выхода DeepSeek-R1, зафиксировал более широкий структурный эффект: DeepSeek доказала, что прорывные модели могут строить не только Big Tech с неограниченным бюджетом, а команды, которые систематически оптимизируют открытые наработки. Компания выросла из хедж-фонда, использовавшего ИИ для торговых решений, — и именно способность к инженерной оптимизации, а не сырой капитал, стала её конкурентным преимуществом.
Открытость как стратегия
Лицензия MIT означает, что любая компания может взять V4-Pro (865 ГБ на Hugging Face) или Flash (160 ГБ) и развернуть собственный инфраструктурный стек — без роялти и зависимости от API стороннего поставщика. Это прямой вызов закрытым моделям OpenAI и Anthropic, монетизация которых построена именно на API-доступе.
Вместе с тем DeepSeek официально предупреждает: модели выходят в статусе preview, чат-шаблон в формате Jinja отсутствует, а старые точки доступа deepseek-chat и deepseek-reasoner будут полностью отключены 24 июля 2026 года.
Если V4-Pro в полной версии подтвердит бенчмарковые результаты preview — и если Unsloth или другие команды выпустят квантизованные варианты, пригодные для локального развертывания на потребительском железе, — вопрос состоит не в том, изменится ли рынок корпоративного ИИ, а в том, сколько времени останется у закрытых провайдеров, прежде чем ценовая разница в 10 раз станет для их клиентов неприемлемым аргументом в пользу лояльности.