⚖️ Сравнение9 мин26 марта 2026 г.

Meta делает свои AI-чипы: зачем и что это значит

Meta анонсировала 4 поколения чипов MTIA (300-500). Зачем отказываться от NVIDIA, как это повлияет на цены AI и что значит для пользователей.

Meta объявила о разработке четвёртого поколения собственных AI-чипов MTIA (Meta Training and Inference Accelerator). Линейка MTIA 300-500 должна к 2027 году заменить значительную часть GPU NVIDIA в дата-центрах Meta. Зачем крупнейшая соцсеть мира делает собственное железо, что это значит для цен на AI-сервисы и как это повлияет на обычных пользователей — разбираемся.

Зачем Meta свои чипы

Короткий ответ: деньги. Meta тратит на GPU NVIDIA по разным оценкам $15-20 миллиардов в год. Это больше, чем годовой бюджет некоторых стран. И эти расходы растут: каждое новое поколение моделей (Llama 4, Llama 5) требует экспоненциально больше вычислений.

Длинный ответ включает три фактора:

1. Зависимость от одного поставщика

NVIDIA контролирует ~90% рынка AI-ускорителей. Это монополия, и монополист диктует цены. H100 стоил $30-40 тысяч, B200 — $40-50 тысяч. Meta закупает сотни тысяч таких чипов. Любое повышение цен NVIDIA — это миллиарды долларов дополнительных расходов для Meta.

2. Оптимизация под свои задачи

GPU NVIDIA — универсальные ускорители. Они хороши для всего: обучения моделей, инференса, научных вычислений, графики. Но Meta нужен чип, оптимизированный под конкретные задачи: inference для рекомендательной системы (>70% вычислений Meta), обучение Llama-моделей, генерация контента для Instagram и Facebook.

Специализированный чип может быть в 3-5 раз эффективнее универсального GPU на целевых задачах.

3. Стратегическая независимость

В мире AI железо — это стратегический ресурс. Если NVIDIA решит повысить цены, ограничить поставки или отдать приоритет конкуренту — Meta окажется в уязвимом положении. Собственные чипы = контроль над цепочкой поставок.

Что такое MTIA

MTIA (Meta Training and Inference Accelerator) — линейка специализированных AI-ускорителей, разработанных Meta. История поколений:

ПоколениеГодНазначениеТехпроцессПроизводительность
MTIA v12023Inference (рекомендации)7 нмBaseline
MTIA v22024Inference + лёгкое обучение5 нм3x v1
MTIA 3002025Обучение + inference4 нм8x v1
MTIA 4002026 (анонс)Обучение LLM3 нм20x v1
MTIA 5002027 (план)Полный стек3 нм40x v1

MTIA 300 уже развёрнут в дата-центрах Meta и обслуживает часть инференса рекомендательной системы. MTIA 400, анонсированный на мартовском событии 2026 года, — первый чип Meta, способный обучать большие языковые модели масштаба Llama.

Архитектура MTIA 400

MTIA 400 — не клон GPU. Это ASIC (Application-Specific Integrated Circuit) с архитектурой, оптимизированной под трансформеры:

Tensor Core — специализированные блоки для матричных операций в FP8/INT8. В отличие от NVIDIA Tensor Cores, оптимизированы под размеры матриц типичных Llama-моделей.

HBM4 память — 96 GB с пропускной способностью 4.8 TB/s. Для сравнения: H100 — 80 GB, 3.35 TB/s.

Inter-chip fabric — собственная сеть для связи чипов внутри сервера. Аналог NVLink, но оптимизированный под топологию дата-центров Meta.

Сравнение подходов: кто ещё делает свои чипы

Meta не первая. Три компании уже производят собственные AI-ускорители в промышленных масштабах:

КомпанияЧипПоколенийНазначениеДоступен внешним клиентам
GoogleTPU (v6e Trillium)6Обучение + inferenceДа (GCP)
AmazonTrainium 33Обучение + inferenceДа (AWS)
MetaMTIA 4004Обучение + inferenceНет (только внутри)
MicrosoftMaia 1001InferenceНет (только Azure)

Google TPU — самый зрелый проект. 6 поколений, доступен для внешних клиентов через Google Cloud. Gemini обучен на TPU. Преимущество: масштаб и экосистема JAX/XLA.

Amazon Trainium — фокус на снижении стоимости обучения. AWS предлагает Trainium-инстансы на 30-40% дешевле GPU-аналогов. Anthropic использует Trainium для обучения Claude.

Meta MTIA — только для внутреннего использования. Meta не продаёт доступ к MTIA и не планирует. Это чисто инфраструктурный проект для снижения собственных расходов.

Что это значит для цен на AI

Прямого влияния на цены для конечных пользователей в ближайший год не будет. Но среднесрочные эффекты значительны:

Снижение затрат Meta

Если MTIA 500 достигнет заявленных целей, Meta снизит стоимость инференса в 3-5 раз. Это значит: бесплатный Llama станет ещё мощнее (Meta сможет обучать более крупные модели за те же деньги), Meta AI в WhatsApp, Instagram, Facebook будет работать быстрее и точнее, AI-функции станут доступны на более дешёвых устройствах.

Давление на NVIDIA

Когда четыре из пяти крупнейших покупателей GPU (Google, Amazon, Meta, Microsoft) делают свои чипы — NVIDIA теряет рычаг давления. Это может привести к снижению цен на GPU, что положительно для всей индустрии: от стартапов до исследователей.

Ускорение доступности AI

Больше конкуренции в железе = более дешёвые вычисления = более дешёвые AI-сервисы. Если тренд продолжится, к 2028 году стоимость инференса может упасть на порядок (10x), что сделает AI доступным для малого бизнеса и индивидуальных разработчиков.

Риски и проблемы

Стоимость разработки — создание чипа с нуля — это $1-3 миллиарда. Meta может себе позволить, но возврат инвестиций не гарантирован. Если Llama проиграет конкуренцию GPT и Gemini, инвестиции в MTIA не окупятся.

Экосистема ПО — CUDA — это не только GPU, но и тысячи библиотек, фреймворков, инструментов. Meta придётся создать аналогичную экосистему для MTIA или обеспечить совместимость с PyTorch (что они делают).

Производство — чипы 3 нм производит только TSMC. Очередь на производство — 12-18 месяцев. Если TSMC не справится с объёмами или поднимет цены — план Meta окажется под угрозой.

Кадры — инженеров по проектированию чипов мало. Meta конкурирует за них с Apple, Google, Amazon, NVIDIA, Qualcomm. Зарплаты в этой области — $400-700K/год.

Влияние на обычных пользователей

Вы не будете покупать MTIA — это чип для дата-центров. Но его появление повлияет на вас опосредованно:

Лучше AI в соцсетях — более быстрые и точные рекомендации, лучшие фильтры, умнее автоматическая модерация. Meta AI станет отвечать быстрее и точнее.

Дешевле AI-сервисы — конкуренция в железе снижает цены по всей цепочке. Если стоимость инференса упадёт, подписки на AI-сервисы могут подешеветь или предложить больше за ту же цену.

Мощнее открытые модели — Meta инвестирует в Llama как стратегический продукт. Дешевле вычисления = возможность обучать более крупные модели = лучшие открытые модели для всех.

FAQ

Можно ли купить чип MTIA?

Нет. MTIA разработан исключительно для внутренней инфраструктуры Meta. Компания не планирует продавать чипы или предоставлять доступ к ним через облако.

Заменит ли MTIA GPU NVIDIA?

Частично. Meta планирует перевести на MTIA 60-70% инференса к 2028 году. Для обучения самых крупных моделей (1T+ параметров) NVIDIA GPU останутся основным инструментом.

Что будет с NVIDIA?

NVIDIA не исчезнет. У неё остаётся огромный рынок: стартапы, университеты, геймеры, автомобильная индустрия, робототехника. Но доля в AI-обучении будет снижаться по мере того, как крупные игроки переходят на собственные чипы.

Это повлияет на Llama?

Да, положительно. Дешевле вычисления → больше экспериментов → более быстрый прогресс. Llama 5, вероятно, будет обучена на комбинации MTIA и NVIDIA GPU, а Llama 6 — преимущественно на MTIA.

Понравилась статья?

Поделитесь с коллегами и друзьями

Читайте также

Хотите больше таких статей?

Подпишитесь на еженедельный дайджест — новые инструменты, промпты и гиды каждую неделю

Подписаться бесплатно