Февраль 2026 года войдёт в историю AI: китайские языковые модели впервые обогнали американские по суммарному объёму обработанных токенов — 4,69 трлн против 3,29 трлн в месяц. Это не просто статистика. Это свидетельство того, что AI-гегемония США, казавшаяся незыблемой ещё два года назад, трещит по швам. Разбираемся, что происходит, кто побеждает и что это значит лично для вас.
Точка отсчёта: как Китай оказался в этой гонке
В 2022 году, когда OpenAI выпустил ChatGPT, китайские компании оказались в роли догоняющих. Baidu, Alibaba, Tencent спешно запускали собственные LLM — Ernie Bot, Tongyi Qianwen, Hunyuan — но отставание по качеству было очевидным. Западные аналитики предсказывали Китаю роль вечного подражателя.
Всё изменил январь 2025 года, когда компания DeepSeek выпустила R1 — модель, обученную за $5,5 млн (против $100+ млн у конкурентов), которая превзошла GPT-4o на ряде бенчмарков. Это был не просто технический прорыв. Это была демонстрация принципиально иного подхода к разработке AI.
Сравнение экосистем: США vs Китай
Американская сторона
| Компания | Флагман 2026 | Инвестиции | Стратегия |
|---|---|---|---|
| OpenAI | GPT-5.1 | $157 млрд оценка | Closed-source, подписки, API |
| Anthropic | Claude Opus 4.6 | $60 млрд оценка | Safety-first, enterprise |
| Google DeepMind | Gemini 3.0 Ultra | $75 млрд/год в AI | Экосистема, поиск, мобайл |
| Meta AI | Llama 4 Scout | $65 млрд в 2026 | Open-source, соцсети |
| Microsoft | Copilot (GPT) | $50 млрд в ЦОД | Офисные инструменты, Azure |
Китайская сторона
| Компания | Флагман 2026 | Особенность | Стратегия |
|---|---|---|---|
| DeepSeek | V4 (1T параметров) | Эффективность обучения | Open-source, дешевле в 10x |
| Alibaba (Qwen) | Qwen 3.5 397B | Размер и мультиязычность | Open-source, облако |
| MiniMax | M2.7 | Self-improvement RL | API, агентные задачи |
| Baidu | ERNIE 5 | Поиск + AI интеграция | Китайский рынок, B2B |
| Moonshot AI (Kimi) | Kimi k2 | Длинный контекст (1M) | Документы, исследования |
| ByteDance (Doubao) | Doubao-pro-4 | TikTok-экосистема | Соцсети, рекомендации |
Технические сравнения: кто сильнее
Языковые задачи
| Задача | Лидер (США) | Лидер (Китай) | Разрыв |
|---|---|---|---|
| Математика (AIME) | o3 (OpenAI): 96.7% | DeepSeek V4: 94.1% | Минимальный |
| Кодирование (SWE-Bench) | Claude Opus 4.6: 83.1% | MiniMax M2.7: 82.4% | Практически нет |
| Общие знания (MMLU) | GPT-5.1: 91.2% | Qwen 3.5: 90.8% | Незначительный |
| Длинный контекст | Gemini 3.0: 2M токенов | Kimi k2: 1M токенов | 2x в пользу США |
| Русский язык | Claude Opus: отлично | DeepSeek V4: хорошо | США чуть лучше |
| Китайский язык | GPT-5.1: хорошо | Qwen 3.5: отлично | Китай значительно лучше |
Стоимость API — ключевое преимущество Китая
| Модель | Стоимость (1M токенов) | Открытые веса | Доступно из РФ |
|---|---|---|---|
| GPT-5.1 | $2.50 / $10.00 | ❌ | VPN |
| Claude Opus 4.6 | $3.00 / $15.00 | ❌ | VPN |
| Gemini 3.0 Pro | $1.25 / $5.00 | ❌ | Частично |
| DeepSeek V4 | $0.27 / $1.10 | ✅ | Да |
| Qwen 3.5 72B | $0.40 / $1.20 | ✅ | Да |
| MiniMax M2.7 | $0.80 / $2.40 | ✅ | Да |
Почему Китай так быстро догнал
1. Ограничения как стимул
Санкции США лишили Китай доступа к мощным чипам NVIDIA (H100, H200). Но это парадоксально ускорило инновации: инженеры были вынуждены разрабатывать алгоритмически эффективные методы обучения. DeepSeek потратил $5,5 млн там, где OpenAI тратит $100+ млн — не потому что у Китая меньше денег, а потому что эффективность стала императивом.
2. Государственная стратегия
В 2023 году Китай объявил AI национальным приоритетом. Инвестиции государственного фонда в AI-компании за 2024–2026 годы превысили $47 млрд — доступ к вычислительным ресурсам, данным госсектора и льготному налогообложению.
3. Open-source как стратегия захвата рынка
Alibaba, DeepSeek, MiniMax открыли веса своих моделей. Это кажется невыгодным, но на деле это краудсорсинг R&D: миллионы разработчиков по всему миру используют китайские модели, строят на них продукты, обнаруживают баги и присылают улучшения.
4. Данные на родном языке
Китайский интернет — один из крупнейших в мире. Обучение на качественных китайских текстах дало моделям знания, недоступные OpenAI или Anthropic. Задачи китайского бизнеса эти модели решают лучше нативно.
Слабые места китайских моделей
- Творческое письмо на западных языках — GPT-5.1 и Claude пишут более естественный английский
- Safety research — меньше инвестиций в alignment и безопасность
- Агентные задачи — Claude и GPT с Operator API более надёжны в autonomous workflows
- Экосистема инструментов — у OpenAI более зрелая developer-экосистема
- Доверие корпораций — западные компании осторожнее переходят из-за вопросов безопасности данных
Три сценария на 2027 год
Сценарий 1: Американское лидерство (30%)
GPT-6 делает качественный скачок. Scaling laws работают только при огромных дорогих чипах. США сохраняют преимущество в 12–18 месяцев.
Сценарий 2: Паритет (50%)
Ни одна сторона не получает решающего преимущества. Мир делится на два AI-блока: западный (OpenAI, Anthropic, Google) и восточный (DeepSeek, Qwen, Baidu).
Сценарий 3: Китайское лидерство (20%)
Алгоритмические инновации позволяют обучать модели уровня GPT-6 на доступном железе. Open-source становится глобальным стандартом. OpenAI вынужден резко снижать цены.
Практически для пользователей из России
| Задача | Без VPN | С VPN |
|---|---|---|
| Код | DeepSeek V4 / MiniMax M2.7 | Claude Opus 4.6 |
| Анализ документов | Qwen 3.5 / Kimi k2 | GPT-5.1 / Gemini 3.0 |
| Текст на русском | DeepSeek V4 / YandexGPT | GPT-5.1 / Claude Sonnet |
| Изображения | Qwen-VL / Doubao Vision | GPT Vision / Gemini Vision |
| Видеогенерация | Kling AI / Hailuo / Wan Video | Sora / Runway Gen-4 |
| API для разработчика | DeepSeek API / MiniMax API | OpenAI API / Anthropic API |
Главные выводы
- Китайские open-source модели достигли качества, сопоставимого с лучшими американскими, но стоят в 5–15 раз дешевле
- Для пользователей из России — это хорошая новость: мощные модели доступны без VPN
- AI-дуополия USA/China устойчива на ближайшие 2–3 года. Европа отстаёт
- Self-improvement через RL (MiniMax M2.7) — следующий фронт конкуренции
- Цены на API продолжат падать: $3/1M токенов → $0.30 в течение года
🔍 Китайские нейросети: Модели без блокировок →
🤖 Подобрать нейросеть: Пройти тест →