🗺️ Гид

Новый Siri с AI: что Apple изменила в iOS 26.4

Apple наконец сделала то, чего пользователи ждали годами — полностью перезапустила Siri с использованием современных технологий генеративного AI. В iOS 26.4, выпущенной в марте 2026 года, Siri превратился из ограниченного голосового ассистента в полноценного AI-помощника, способного вести контекстные диалоги, управлять приложениями и генерировать контент. Разбираемся, что именно изменилось и стоит ли менять привычки.

Почему старый Siri проигрывал конкурентам

Признаем очевидное: до 2026 года Siri был одним из самых слабых AI-ассистентов среди большой тройки (Apple, Google, Amazon). Проблема заключалась в архитектуре: Siri работал на основе заранее прописанных интентов (намерений), а не на нейросетевых моделях. Каждая новая функция требовала ручного программирования, в то время как Google Assistant и ChatGPT учились «на лету».

Результат: Siri мог поставить таймер и прочитать погоду, но терялся на сложных вопросах, не умел вести многоходовую беседу и регулярно отвечал «Я нашёл это в интернете» вместо реального ответа.

Что изменилось в iOS 26.4

Apple кардинально переработала архитектуру Siri. В основе нового ассистента — собственная большая языковая модель Apple Foundation Model (AFM), обученная на серверах Apple и оптимизированная для работы на устройствах. Ключевое отличие от ChatGPT и Claude — гибридная архитектура: базовые операции выполняются локально на устройстве (Apple Intelligence on-device), сложные задачи обрабатываются в облаке через Private Cloud Compute.

Контекстные диалоги

Новый Siri помнит контекст разговора. Вы можете начать тему, переключиться на другую, а потом вернуться — и Siri будет понимать, о чём идёт речь. Пример:

  • «Какая погода в Москве?» — Siri отвечает
  • «А в Петербурге?» — понимает, что речь о погоде
  • «Нужен ли мне зонт завтра?» — использует контекст последнего города
  • «Закажи мне такси до аэропорта» — переключается на новую задачу
  • «Вернёмся к погоде — что на выходные?» — помнит предыдущий контекст

Старый Siri обрабатывал каждый запрос изолированно. Новый — ведёт полноценный диалог.

Управление приложениями через естественный язык

Самое впечатляющее обновление — интеграция с App Intents Framework нового поколения. Siri может выполнять действия внутри приложений, даже если разработчик не добавил специальную поддержку Siri. Apple использует модель, которая «видит» интерфейс приложения и может взаимодействовать с ним.

Примеры:

  • «В Telegram отправь маме фотографию, которую я сделал вчера на закате»
  • «В Instagram найди мой последний пост и ответь на все комментарии спасибо»
  • «Открой документ в Pages, добавь оглавление и исправь грамматические ошибки»
  • «В банковском приложении покажи траты за март и переведи 5000 рублей Ивану»

Генерация и редактирование текста

Siri теперь может генерировать текст на уровне, сопоставимом с ChatGPT (по оценкам — примерно GPT-4o-mini по качеству). Эта функция доступна в любом текстовом поле на устройстве:

  • Написание и переформулирование email
  • Создание заметок, планов, списков
  • Перевод текста с сохранением стиля
  • Суммаризация длинных документов и веб-страниц
  • Генерация ответов в мессенджерах с учётом контекста переписки

Работа с файлами и информацией на устройстве

Siri получил доступ к файлам, фотографиям, заметкам, календарю, контактам и истории браузера. Он может находить информацию по описанию, а не только по имени файла:

  • «Найди PDF, который мне прислал Алексей на прошлой неделе, он был про квартальный отчёт»
  • «Покажи фотографии с дня рождения Маши в прошлом году»
  • «Когда я в последний раз общался с Петровым?»

Apple Intelligence: AI на устройстве

Ключевая фишка Apple — значительная часть вычислений происходит прямо на iPhone или Mac. Компактная модель (примерно 3 миллиарда параметров) работает локально, используя Neural Engine чипов A18 Pro и M4.

Что работает локально (без интернета):

  • Суммаризация текстов и уведомлений
  • Автокоррекция и переформулирование текста
  • Поиск по фотографиям и файлам
  • Базовые вопросы и команды
  • Генерация коротких текстов (до ~500 слов)

Что требует облака (Private Cloud Compute):

  • Сложные аналитические вопросы
  • Генерация длинных текстов
  • Работа с контекстом приложений (когда нужна полная модель)
  • Мультимодальные задачи (анализ изображений, аудио)

Приватность: главный козырь Apple

Если OpenAI и Google обрабатывают ваши данные в своих облаках и потенциально используют их для обучения моделей, Apple пошла другим путём. Private Cloud Compute (PCC) — это серверы Apple, которые обрабатывают запросы без сохранения данных.

Как это работает:

  1. Запрос шифруется на устройстве
  2. Отправляется на серверы PCC, работающие на Apple Silicon
  3. Обрабатывается в изолированной среде
  4. Результат возвращается на устройство
  5. Все данные удаляются с сервера — ничего не сохраняется

Apple приглашает независимых аудиторов проверять код PCC. Это принципиально отличается от подхода OpenAI и Google, где пользователь вынужден доверять компании на слово.

Сравнение: новый Siri vs Google Assistant vs Alexa vs ChatGPT

ВозможностьSiri (iOS 26.4)Google AssistantAlexaChatGPT
Контекстные диалогиДа (до 20 обменов)Да (до 15 обменов)ОграниченоДа (безлимит)
Управление приложениямиДа (любые приложения)ЧастичноеТолько Alexa SkillsНет (кроме Computer Use)
Генерация текстаХорошая (~GPT-4o-mini)Хорошая (Gemini)БазоваяЛучшая (GPT-5.4)
Работа офлайнБазовые функцииМинимальноНетНет
ПриватностьМаксимальная (PCC)СредняяНизкаяСредняя
Интеграция с ОСГлубокая (iOS/macOS)Глубокая (Android)Умный домНе интегрирован
МультимодальностьТекст, голос, изображенияТекст, голос, изображения, видеоГолосТекст, голос, изображения, видео
Русский языкПолная поддержкаПолная поддержкаОграниченнаяПолная поддержка
СтоимостьБесплатно (с устройством)БесплатноБесплатно$20/мес (Plus)

Старый Siri vs новый Siri: что изменилось

ФункцияСтарый Siri (до iOS 26)Новый Siri (iOS 26.4)
ОсноваИнтенты + правилаБольшая языковая модель (AFM)
Контекст разговораНет (каждый запрос отдельно)Да (помнит до 20 обменов)
Ответы на вопросы«Вот что я нашёл в интернете»Развёрнутый ответ с источниками
Генерация текстаНетДа, в любом текстовом поле
Управление приложениямиТолько приложения с поддержкой SiriKitЛюбые приложения (через App Intents и vision)
Поиск файловПо имениПо описанию содержимого
Обработка фотоБазовая (покажи фото)Семантический поиск + редактирование
ПерсонализацияМинимальнаяУчитывает привычки, контакты, расписание

Когда выйдет в России

iOS 26.4 доступна для скачивания уже сейчас, но функции Apple Intelligence с полноценным русским языком появляются поэтапно. На момент публикации (март 2026):

  • Работает на русском: суммаризация уведомлений, автокоррекция текста, базовые голосовые команды, поиск по фотографиям
  • Ожидается в апреле 2026: полноценная генерация текста на русском, контекстные диалоги на русском языке
  • Ожидается летом 2026: управление русскоязычными приложениями, полная персонализация для российского рынка

Важно: для работы Apple Intelligence требуется iPhone 16 или новее (чип A18 Pro), iPad с чипом M1 и новее, Mac с чипом M1 и новее. Старые устройства получат обновление iOS, но без функций AI.

Стоит ли переходить с Android ради нового Siri

Если вы рассматриваете переход с Android на iPhone ради нового Siri — пока это преждевременно. Google Assistant с Gemini предлагает сопоставимый уровень AI-возможностей. Главное преимущество Apple — приватность и глубокая интеграция с экосистемой. Если вы уже в экосистеме Apple (Mac, iPad, AirPods, Apple Watch), обновлённый Siri станет серьёзным бонусом.

Для пользователей Android лучший AI-ассистент — Google Assistant с Gemini 2.5 Pro, который встроен прямо в ОС и работает не хуже нового Siri.

📱 AI-ассистенты: Все AI-ассистенты в каталоге →

🔍 Подобрать нейросеть: Тест подбора →

Понравилась статья?

Поделитесь с коллегами и друзьями

Читайте также

Хотите больше таких статей?

Подпишитесь на еженедельный дайджест — новые инструменты, промпты и гиды каждую неделю

Подписаться бесплатно