Мир AI разделился на два лагеря: открытые модели (Llama, Mistral, Gemma, Qwen) и закрытые (GPT-4, Claude, Gemini). Каждый подход имеет свои преимущества, и выбор между ними — один из главных вопросов для любого проекта с AI. В этой статье — объективное сравнение по всем ключевым критериям.
Что такое Open Source и Closed Source AI
Open Source модели
Модели с открытыми весами, которые можно скачать, запустить на своём оборудовании и модифицировать. Код и веса доступны публично (обычно через Hugging Face).
Ключевые модели: Llama 3 (Meta), Mistral (Mistral AI), Gemma (Google), Qwen (Alibaba), Phi (Microsoft), DeepSeek.
Closed Source модели
Проприетарные модели, доступные только через API провайдера. Веса, архитектура и данные обучения закрыты.
Ключевые модели: GPT-4o (OpenAI), Claude Opus (Anthropic), Gemini Ultra (Google).
Сравнение качества (бенчмарки)
| Бенчмарк | GPT-4o | Claude Opus | Llama 3 405B | Mistral Large | Qwen 2.5 72B |
|---|---|---|---|---|---|
| MMLU (знания) | 88.7 | 87.3 | 86.1 | 84.0 | 85.3 |
| HumanEval (код) | 90.2 | 92.0 | 80.5 | 77.8 | 79.1 |
| MATH (математика) | 76.6 | 74.1 | 73.8 | 68.5 | 71.2 |
| MT-Bench (диалог) | 9.3 | 9.1 | 8.9 | 8.5 | 8.7 |
| Русский язык | 8/10 | 9/10 | 7/10 | 7/10 | 7/10 |
Вывод: Закрытые модели по-прежнему лидируют, но разрыв сокращается. Llama 3 405B уже близка к GPT-4o на многих бенчмарках.
Стоимость
Закрытые модели (API)
| Модель | Вход / 1M токенов | Выход / 1M токенов | Месячная стоимость* |
|---|---|---|---|
| GPT-4o | $2.50 | $10.00 | $375 |
| GPT-4o mini | $0.15 | $0.60 | $23 |
| Claude Sonnet | $3.00 | $15.00 | $540 |
| Claude Opus | $15.00 | $75.00 | $2700 |
* При 1M входных + 1M выходных токенов/день
Открытые модели (self-hosting)
| Модель | Требуемый GPU | Стоимость GPU/мес | Токены/мес (безлимит) |
|---|---|---|---|
| Llama 3 8B (4-bit) | 1x RTX 4090 (24 ГБ) | $150–300 | Безлимит |
| Llama 3 70B (4-bit) | 2x A100 (80 ГБ) | $2000–4000 | Безлимит |
| Llama 3 405B (4-bit) | 8x A100 (80 ГБ) | $10000–16000 | Безлимит |
| Mistral 7B (4-bit) | 1x RTX 3090 (24 ГБ) | $100–200 | Безлимит |
Когда self-hosting дешевле API
Примерная точка безубыточности:
- Llama 3 8B на RTX 4090 окупается при >5M токенов/день (vs GPT-4o mini)
- Llama 3 70B на 2x A100 окупается при >3M токенов/день (vs GPT-4o)
Если ваш объём меньше — API дешевле. Если больше — self-hosting экономичнее.
Промежуточный вариант: облачный инференс
Сервисы вроде Groq, Together AI, Fireworks AI предоставляют API для open source моделей по ценам значительно ниже OpenAI:
| Сервис | Llama 3 70B (вход/выход) |
|---|---|
| Groq | $0.59 / $0.79 за 1M |
| Together AI | $0.88 / $0.88 за 1M |
| Fireworks AI | $0.90 / $0.90 за 1M |
Это в 3–10 раз дешевле GPT-4o при сопоставимом качестве для многих задач.
Приватность и безопасность
| Критерий | Open Source | Closed Source |
|---|---|---|
| Данные покидают сервер? | Нет (при self-hosting) | Да (отправляются провайдеру) |
| Контроль над данными | Полный | Зависит от ToS провайдера |
| Комплаенс (GDPR, 152-ФЗ) | Проще (данные локально) | Сложнее (передача за рубеж) |
| Аудит модели | Возможен (открытые веса) | Невозможен |
| Зависимость от провайдера | Нет | Полная |
Для российских компаний это критически важно: 152-ФЗ требует хранения персональных данных на территории РФ. Self-hosted open source модели решают эту проблему, а отправка данных в OpenAI API — потенциальное нарушение.
Кастомизация
| Возможность | Open Source | Closed Source |
|---|---|---|
| Fine-tuning | Полный (LoRA, QLoRA, full) | Ограниченный (OpenAI API) |
| Изменение архитектуры | Да | Нет |
| Квантизация | Любая (4-bit, 8-bit, GGUF) | Нет |
| Промпт-инженерия | Да | Да |
| Контроль генерации | Полный (температура, sampler) | Ограниченный (API параметры) |
| Интеграция в продукт | Без ограничений | Зависит от лицензии API |
Надёжность и поддержка
| Критерий | Open Source | Closed Source |
|---|---|---|
| Uptime SLA | Зависит от вашей инфраструктуры | 99.9% (обычно) |
| Техподдержка | Сообщество | Коммерческая |
| Обновления | Нерегулярные | Регулярные |
| Документация | Разная (от отличной до минимальной) | Обычно хорошая |
| Риск закрытия | Минимальный (код открыт) | Есть (провайдер может изменить условия) |
Практические сценарии: когда что выбрать
Выбирайте Closed Source (API), если:
- Нужно быстро начать — регистрация и первый запрос за 5 минут
- Небольшой объём — до 1M токенов/день
- Нужно максимальное качество — GPT-4o и Claude Opus по-прежнему лучшие
- Нет ML-инженеров — не нужна экспертиза в деплое моделей
- Прототипирование — проверка идеи перед масштабированием
Выбирайте Open Source, если:
- Приватность критична — данные не должны покидать сервер
- Высокий объём — миллионы токенов/день, API становится дорогим
- Нужна кастомизация — fine-tuning, специализация, контроль генерации
- Регуляторные требования — 152-ФЗ, GDPR, отраслевые стандарты
- Независимость от провайдера — не хотите зависеть от OpenAI/Anthropic
- Россия — нет VPN-зависимости, нет валютных рисков
Лучшие open source модели 2026
Llama 3 (Meta)
Лучшая универсальная открытая модель. Доступна в размерах 8B, 70B и 405B. Llama 3 405B — ближайший конкурент GPT-4o среди открытых моделей.
Mistral (Mistral AI)
Европейская модель с отличной эффективностью. Mistral 7B — лучшая маленькая модель. Mistral Large — конкурент GPT-4o mini.
Gemma 2 (Google)
Открытая модель от Google. Хорошая для задач, где важна интеграция с экосистемой Google.
Qwen 2.5 (Alibaba)
Сильная модель из Китая с хорошим покрытием мультиязычных задач. Доступна в размерах до 72B.
Phi-3 (Microsoft)
Маленькая, но мощная модель. Phi-3 Mini (3.8B) показывает качество, сопоставимое с моделями в 10 раз крупнее на некоторых бенчмарках.
DeepSeek
Модель с акцентом на программирование и математику. DeepSeek Coder — одна из лучших открытых моделей для кода.
Инструменты для работы с Open Source
| Инструмент | Назначение |
|---|---|
| Ollama | Простейший способ запустить LLM локально (Mac, Linux, Windows) |
| llama.cpp | Запуск квантизированных моделей на CPU |
| vLLM | Высокопроизводительный инференс на GPU |
| Text Generation WebUI | Веб-интерфейс для локальных моделей |
| Hugging Face | Репозиторий моделей и библиотеки |
| LM Studio | GUI-приложение для запуска моделей локально |
Тренды 2026 года
- Сближение качества — разрыв между open и closed source сокращается. Llama 4 может приблизиться к GPT-4o
- Маленькие, но мощные — модели типа Phi-3 показывают, что размер не всё. Качество данных важнее количества параметров
- Гибридный подход — компании используют open source для большинства задач и closed source API для самых сложных
- Стандартизация — форматы (GGUF, ONNX), API-совместимость (OpenAI-compatible endpoints) делают переход между моделями проще
- Edge AI — маленькие модели для мобильных устройств, IoT, встраиваемых систем
Итоговая рекомендация
| Ваша ситуация | Рекомендация |
|---|---|
| Стартап, прототип | Closed Source API (GPT-4o mini) |
| Малый бизнес, базовые задачи | Closed Source API или облачный open source (Groq) |
| Средний бизнес, много запросов | Гибрид: open source (основа) + closed source (сложные задачи) |
| Крупная компания, приватность | Self-hosted open source (Llama/Mistral) |
| Российская компания | YandexGPT/GigaChat API + self-hosted open source для чувствительных данных |
| Исследователь/энтузиаст | Open source (Ollama + любая модель) |
Мир AI движется к открытости. Через 2–3 года разница в качестве между open и closed source станет минимальной, и выбор будет определяться исключительно бизнес-требованиями: стоимостью, приватностью и удобством. Уже сейчас для большинства задач open source модели — отличный выбор.