Китайская лаборатория DeepSeek выпустила модель, которая изменила расстановку сил на рынке AI. DeepSeek V4 — это 1 триллион параметров, из которых при каждом запросе активируются только 32 миллиарда. Благодаря архитектуре Mixture of Experts (MoE) модель обеспечивает качество, сопоставимое с GPT-5.4, при стоимости API в 20 раз ниже. И она полностью доступна из России.
Что такое Mixture of Experts и почему это прорыв
Традиционные языковые модели (dense models) задействуют все свои параметры при обработке каждого запроса. Если у модели 200 миллиардов параметров — все 200 миллиардов участвуют в каждом вычислении. Это дорого, медленно и требует огромных вычислительных ресурсов.
Mixture of Experts (MoE) работает иначе. Модель состоит из множества «экспертов» — специализированных подсетей, каждая из которых отвечает за определённый тип задач. При поступлении запроса маршрутизатор (router) определяет, какие эксперты нужны для конкретной задачи, и активирует только их.
В случае DeepSeek V4: триллион параметров — это общий размер модели, включающей 256 экспертов. При каждом запросе активируются 8 экспертов, что составляет 32 миллиарда активных параметров. Это означает, что вычислительные затраты на обработку запроса сопоставимы с моделью в 32 миллиарда параметров, а качество — как у модели в 200-400 миллиардов.
Аналогия: университет с 256 профессорами
Представьте университет, где работает 256 профессоров разных специализаций. Когда студент приходит с вопросом по физике, его направляют к 8 профессорам, которые лучше всего разбираются в нужной области. Не нужно спрашивать всех 256 — достаточно узких специалистов. Результат: быстрый и качественный ответ при минимальных «затратах».
Архитектура DeepSeek V4 в деталях
| Параметр | DeepSeek V4 | DeepSeek V3 | GPT-5.4 Standard | Llama 4 Maverick |
|---|---|---|---|---|
| Общее кол-во параметров | 1 трлн | 671 млрд | Не раскрыто | 400 млрд |
| Активные параметры | 32 млрд | 37 млрд | Не раскрыто | 17 млрд |
| Количество экспертов | 256 | 256 | — | 128 |
| Активных экспертов | 8 | 8 | — | 1 |
| Контекстное окно | 256K | 128K | 256K | 1M |
| Архитектура внимания | MLA (Multi-head Latent Attention) | MLA | Не раскрыто | Стандартный Multi-head |
| Мультимодальность | Текст + изображения | Только текст | Текст + изображения + аудио + видео | Текст + изображения |
| Открытые веса | Да (Apache 2.0) | Да | Нет | Да (Llama License) |
Бенчмарки: DeepSeek V4 vs GPT-5.4 vs Claude vs Gemini
DeepSeek V4 показывает результаты, сопоставимые с лучшими проприетарными моделями, а в некоторых категориях превосходит их:
| Бенчмарк | DeepSeek V4 | GPT-5.4 Standard | Claude 3.5 Opus | Gemini 2.5 Pro |
|---|---|---|---|---|
| MMLU-Pro | 88.5% | 89.2% | 91.8% | 90.1% |
| HumanEval (код) | 93.7% | 94.5% | 95.3% | 91.8% |
| MATH-500 | 90.1% | 87.3% | 94.2% | 92.4% |
| GPQA Diamond | 69.8% | 72.1% | 78.9% | 75.3% |
| LiveCodeBench | 55.2% | 51.8% | 54.7% | 49.3% |
| MGSM (русский) | 89.7% | 91.4% | 93.5% | 90.8% |
| AIME 2025 (математика) | 73.3% | 68.5% | 76.1% | 70.4% |
Ключевое наблюдение: DeepSeek V4 обходит GPT-5.4 Standard в математике (MATH-500, AIME 2025) и конкурентоспособен в кодинге. При этом стоит в 20 раз дешевле. Уступает в общих знаниях (MMLU-Pro) и сложном рассуждении (GPQA Diamond), но разрыв минимален.
Цена API: почему это важно
Главное конкурентное преимущество DeepSeek V4 — цена. Вот сравнение стоимости обработки одного миллиона токенов:
| Модель | Вход (за 1M) | Выход (за 1M) | Стоимость типичного диалога (5K in / 2K out) |
|---|---|---|---|
| DeepSeek V4 | $0.14 | $0.28 | $0.0013 |
| GPT-5.4 Standard | $3.00 | $12.00 | $0.039 |
| GPT-5.4 Thinking | $10.00 | $40.00 | $0.130 |
| Claude 3.5 Opus | $15.00 | $75.00 | $0.225 |
| Gemini 2.5 Pro | $1.25 | $10.00 | $0.026 |
Один и тот же диалог, который стоит $0.039 через GPT-5.4, обойдётся в $0.0013 через DeepSeek V4. Это в 30 раз дешевле. Для стартапов и малого бизнеса, которые делают тысячи API-вызовов в день, разница может составлять сотни тысяч рублей в месяц.
Доступ из России: без VPN, без ограничений
В отличие от OpenAI и Anthropic, DeepSeek работает с российскими пользователями без ограничений. Веб-чат (chat.deepseek.com) доступен напрямую, API принимает запросы с российских IP-адресов, оплата возможна криптовалютой и через ряд платёжных систем.
Это делает DeepSeek V4 главным кандидатом на замену ChatGPT для российских пользователей и разработчиков. Качество сопоставимо, цена в десятки раз ниже, и никаких геоблокировок.
Как подключить DeepSeek V4 API
- Зарегистрируйтесь на platform.deepseek.com
- Получите API-ключ в разделе Dashboard
- API совместим с форматом OpenAI — достаточно заменить base URL и ключ в существующем коде
- Поддерживается через OpenAI Python SDK, LangChain, LlamaIndex и другие фреймворки
Как запустить DeepSeek V4 локально
DeepSeek V4 распространяется с открытыми весами под лицензией Apache 2.0, что позволяет запускать модель полностью локально. Однако полная версия с триллионом параметров требует серьёзного оборудования.
Варианты локального запуска
| Вариант | Размер модели | Требования | Качество |
|---|---|---|---|
| DeepSeek V4 Full | ~500 GB | 8x H100 80GB или аналог | 100% (полное качество) |
| DeepSeek V4 Q4_K_M (квантованная) | ~200 GB | 4x A100 40GB | ~97% |
| DeepSeek V4 Q3_K (агрессивная квантизация) | ~130 GB | 2x A100 или 256GB RAM (CPU) | ~93% |
| DeepSeek V4 Mini (дистиллированная) | ~20 GB | 24 GB VRAM или 32 GB RAM | ~85% |
Для большинства пользователей оптимальный вариант — DeepSeek V4 Mini, дистиллированная версия, которая запускается на потребительских видеокартах (RTX 4070 Super и выше). Качество составляет ~85% от полной версии, но этого достаточно для большинства задач.
Запуск через Ollama
Самый простой способ запустить DeepSeek V4 Mini локально:
- Установите Ollama с официального сайта
- Откройте терминал и выполните:
ollama run deepseek-v4 - Модель скачается автоматически (~20 GB) и запустится
- Общайтесь с моделью прямо в терминале или подключите через API (localhost:11434)
Что это значит для open-source AI
DeepSeek V4 — важнейший аргумент в пользу открытых моделей. Компания доказала, что можно создать модель мирового класса и выпустить её с открытыми весами. Это даёт несколько принципиальных преимуществ:
- Независимость от облака: вы не зависите от провайдера, который может изменить цены, заблокировать доступ или прекратить существование
- Приватность: данные не покидают вашу инфраструктуру. Для медицины, финансов и госсектора это критически важно
- Кастомизация: можно дообучить модель на своих данных (fine-tuning) для специализированных задач
- Цена: при больших объёмах запросов self-hosted модель окупается за несколько месяцев
Ограничения DeepSeek V4
При всех преимуществах у модели есть ограничения, о которых важно знать:
- Контекстное окно: 256K токенов — это много, но GPT-5.4 Pro предлагает 1.05M, а Llama 4 Scout — 10M. Для анализа очень больших документов DeepSeek V4 может не хватить
- Мультимодальность: поддерживает текст и изображения, но не аудио и видео (GPT-5.4 и Gemini умеют обрабатывать все модальности)
- Цензура: модель обучена с учётом китайского законодательства. Некоторые темы (политически чувствительные для КНР) могут обрабатываться с ограничениями. Впрочем, для рабочих задач это редко актуально
- Поддержка: у DeepSeek нет SLA и enterprise-поддержки, которую предлагают OpenAI и Anthropic. Для критичных production-систем это может быть проблемой
Кому подойдёт DeepSeek V4
DeepSeek V4 — лучший выбор для тех, кому важно соотношение цена/качество. Разработчики, стартапы, фрилансеры, исследователи — все, кто делает много API-вызовов и не готов платить premium-цены OpenAI и Anthropic. Для российских пользователей это вдвойне актуально: доступ без VPN, оплата без зарубежной карты, качество на уровне лучших мировых моделей.
📊 Сравнить модели: DeepSeek V4 vs GPT-5.4 vs Claude →
💻 Каталог: Страница DeepSeek в каталоге →