Apple наконец сделала то, чего пользователи ждали годами — полностью перезапустила Siri с использованием современных технологий генеративного AI. В iOS 26.4, выпущенной в марте 2026 года, Siri превратился из ограниченного голосового ассистента в полноценного AI-помощника, способного вести контекстные диалоги, управлять приложениями и генерировать контент. Разбираемся, что именно изменилось и стоит ли менять привычки.
Почему старый Siri проигрывал конкурентам
Признаем очевидное: до 2026 года Siri был одним из самых слабых AI-ассистентов среди большой тройки (Apple, Google, Amazon). Проблема заключалась в архитектуре: Siri работал на основе заранее прописанных интентов (намерений), а не на нейросетевых моделях. Каждая новая функция требовала ручного программирования, в то время как Google Assistant и ChatGPT учились «на лету».
Результат: Siri мог поставить таймер и прочитать погоду, но терялся на сложных вопросах, не умел вести многоходовую беседу и регулярно отвечал «Я нашёл это в интернете» вместо реального ответа.
Что изменилось в iOS 26.4
Apple кардинально переработала архитектуру Siri. В основе нового ассистента — собственная большая языковая модель Apple Foundation Model (AFM), обученная на серверах Apple и оптимизированная для работы на устройствах. Ключевое отличие от ChatGPT и Claude — гибридная архитектура: базовые операции выполняются локально на устройстве (Apple Intelligence on-device), сложные задачи обрабатываются в облаке через Private Cloud Compute.
Контекстные диалоги
Новый Siri помнит контекст разговора. Вы можете начать тему, переключиться на другую, а потом вернуться — и Siri будет понимать, о чём идёт речь. Пример:
- «Какая погода в Москве?» — Siri отвечает
- «А в Петербурге?» — понимает, что речь о погоде
- «Нужен ли мне зонт завтра?» — использует контекст последнего города
- «Закажи мне такси до аэропорта» — переключается на новую задачу
- «Вернёмся к погоде — что на выходные?» — помнит предыдущий контекст
Старый Siri обрабатывал каждый запрос изолированно. Новый — ведёт полноценный диалог.
Управление приложениями через естественный язык
Самое впечатляющее обновление — интеграция с App Intents Framework нового поколения. Siri может выполнять действия внутри приложений, даже если разработчик не добавил специальную поддержку Siri. Apple использует модель, которая «видит» интерфейс приложения и может взаимодействовать с ним.
Примеры:
- «В Telegram отправь маме фотографию, которую я сделал вчера на закате»
- «В Instagram найди мой последний пост и ответь на все комментарии спасибо»
- «Открой документ в Pages, добавь оглавление и исправь грамматические ошибки»
- «В банковском приложении покажи траты за март и переведи 5000 рублей Ивану»
Генерация и редактирование текста
Siri теперь может генерировать текст на уровне, сопоставимом с ChatGPT (по оценкам — примерно GPT-4o-mini по качеству). Эта функция доступна в любом текстовом поле на устройстве:
- Написание и переформулирование email
- Создание заметок, планов, списков
- Перевод текста с сохранением стиля
- Суммаризация длинных документов и веб-страниц
- Генерация ответов в мессенджерах с учётом контекста переписки
Работа с файлами и информацией на устройстве
Siri получил доступ к файлам, фотографиям, заметкам, календарю, контактам и истории браузера. Он может находить информацию по описанию, а не только по имени файла:
- «Найди PDF, который мне прислал Алексей на прошлой неделе, он был про квартальный отчёт»
- «Покажи фотографии с дня рождения Маши в прошлом году»
- «Когда я в последний раз общался с Петровым?»
Apple Intelligence: AI на устройстве
Ключевая фишка Apple — значительная часть вычислений происходит прямо на iPhone или Mac. Компактная модель (примерно 3 миллиарда параметров) работает локально, используя Neural Engine чипов A18 Pro и M4.
Что работает локально (без интернета):
- Суммаризация текстов и уведомлений
- Автокоррекция и переформулирование текста
- Поиск по фотографиям и файлам
- Базовые вопросы и команды
- Генерация коротких текстов (до ~500 слов)
Что требует облака (Private Cloud Compute):
- Сложные аналитические вопросы
- Генерация длинных текстов
- Работа с контекстом приложений (когда нужна полная модель)
- Мультимодальные задачи (анализ изображений, аудио)
Приватность: главный козырь Apple
Если OpenAI и Google обрабатывают ваши данные в своих облаках и потенциально используют их для обучения моделей, Apple пошла другим путём. Private Cloud Compute (PCC) — это серверы Apple, которые обрабатывают запросы без сохранения данных.
Как это работает:
- Запрос шифруется на устройстве
- Отправляется на серверы PCC, работающие на Apple Silicon
- Обрабатывается в изолированной среде
- Результат возвращается на устройство
- Все данные удаляются с сервера — ничего не сохраняется
Apple приглашает независимых аудиторов проверять код PCC. Это принципиально отличается от подхода OpenAI и Google, где пользователь вынужден доверять компании на слово.
Сравнение: новый Siri vs Google Assistant vs Alexa vs ChatGPT
| Возможность | Siri (iOS 26.4) | Google Assistant | Alexa | ChatGPT |
|---|---|---|---|---|
| Контекстные диалоги | Да (до 20 обменов) | Да (до 15 обменов) | Ограничено | Да (безлимит) |
| Управление приложениями | Да (любые приложения) | Частичное | Только Alexa Skills | Нет (кроме Computer Use) |
| Генерация текста | Хорошая (~GPT-4o-mini) | Хорошая (Gemini) | Базовая | Лучшая (GPT-5.4) |
| Работа офлайн | Базовые функции | Минимально | Нет | Нет |
| Приватность | Максимальная (PCC) | Средняя | Низкая | Средняя |
| Интеграция с ОС | Глубокая (iOS/macOS) | Глубокая (Android) | Умный дом | Не интегрирован |
| Мультимодальность | Текст, голос, изображения | Текст, голос, изображения, видео | Голос | Текст, голос, изображения, видео |
| Русский язык | Полная поддержка | Полная поддержка | Ограниченная | Полная поддержка |
| Стоимость | Бесплатно (с устройством) | Бесплатно | Бесплатно | $20/мес (Plus) |
Старый Siri vs новый Siri: что изменилось
| Функция | Старый Siri (до iOS 26) | Новый Siri (iOS 26.4) |
|---|---|---|
| Основа | Интенты + правила | Большая языковая модель (AFM) |
| Контекст разговора | Нет (каждый запрос отдельно) | Да (помнит до 20 обменов) |
| Ответы на вопросы | «Вот что я нашёл в интернете» | Развёрнутый ответ с источниками |
| Генерация текста | Нет | Да, в любом текстовом поле |
| Управление приложениями | Только приложения с поддержкой SiriKit | Любые приложения (через App Intents и vision) |
| Поиск файлов | По имени | По описанию содержимого |
| Обработка фото | Базовая (покажи фото) | Семантический поиск + редактирование |
| Персонализация | Минимальная | Учитывает привычки, контакты, расписание |
Когда выйдет в России
iOS 26.4 доступна для скачивания уже сейчас, но функции Apple Intelligence с полноценным русским языком появляются поэтапно. На момент публикации (март 2026):
- Работает на русском: суммаризация уведомлений, автокоррекция текста, базовые голосовые команды, поиск по фотографиям
- Ожидается в апреле 2026: полноценная генерация текста на русском, контекстные диалоги на русском языке
- Ожидается летом 2026: управление русскоязычными приложениями, полная персонализация для российского рынка
Важно: для работы Apple Intelligence требуется iPhone 16 или новее (чип A18 Pro), iPad с чипом M1 и новее, Mac с чипом M1 и новее. Старые устройства получат обновление iOS, но без функций AI.
Стоит ли переходить с Android ради нового Siri
Если вы рассматриваете переход с Android на iPhone ради нового Siri — пока это преждевременно. Google Assistant с Gemini предлагает сопоставимый уровень AI-возможностей. Главное преимущество Apple — приватность и глубокая интеграция с экосистемой. Если вы уже в экосистеме Apple (Mac, iPad, AirPods, Apple Watch), обновлённый Siri станет серьёзным бонусом.
Для пользователей Android лучший AI-ассистент — Google Assistant с Gemini 2.5 Pro, который встроен прямо в ОС и работает не хуже нового Siri.
📱 AI-ассистенты: Все AI-ассистенты в каталоге →
🔍 Подобрать нейросеть: Тест подбора →