Еще полгода назад казалось, что голосовой помощник Apple безнадежно отстал от конкурентов: набор команд не развивался, а «умные» сценарии приходилось строить через сложные цепочки в Shortcuts. После кадровых перестановок в апреле 2025 года подразделение получило собственный R&D-бюджет и четкую задачу — сделать Siri ключевым элементом Apple Intelligence. Первые плоды реформы мы увидим уже осенью вместе с iOS 26 — и это не косметические патчи, а три фундаментальных изменения логики работы ассистента. Именно им и посвящена статья Ябко.
full.jpg.webp)
Персональный контекст без «облачной утечки»
Главное преимущество Siri перед сторонними LLM-ботами — доступ к данным из экосистемы. В 26-й версии система научится искать информацию в ваших письмах, сообщениях, заметках и календарях, не покидая пределы устройства. Алгоритм локально индексирует именованные сущности: людей из списка контактов, названия подкастов, файлы из iCloud Drive. Благодаря этому фраза «Включи подкаст, который советовал Джейми» активирует именно тот эпизод, о котором упоминал друг в Messenger, а запрос «Когда приземляется мамин рейс?» объединит маршрут из переписки с данными Flight Tracker в реальном времени. Конфиденциальность не страдает: идентификаторы никуда не передаются, сервер получает только анонимный вектор запроса вроде «подкаст-ID 123».
Сотни новых действий и настоящее hands-free
Благодаря расширенному API App Actions Siri выходит за пределы простых напоминаний и таймеров. Теперь ассистент может выполнять сложные операции сразу в нескольких приложениях. Скажите: «Добавь утренние фото в заметку про наблюдение за птицами» — и система сама выберет изображения по временной метке, откроет Notes, вставит медиа в нужный документ и синхронизирует изменения через iCloud. Партнеры стартовой волны — Photos, Notes, Files, Mail, Pages и сторонние приложения, успевшие внедрить новый Intents SDK. Для пользователя это означает возможность управлять iPhone почти полностью голосом, не касаясь экрана во время готовки или за рулем.
Полноценное «осознание» экрана
Если раньше команда «Напомни об этом» работала только в Mail или Safari, теперь Siri анализирует содержимое любого открытого приложения. Увидели новый адрес в чате — просто скажите: «Добавь этот адрес в контакт Андрея», и нужное поле заполнится автоматически. В Safari просматриваете рецепт? Скажите: «Сохрани ингредиенты в список покупок» — и Reminders сформирует чек-лист. Технология основана на новом фреймворке Screen Context, который разработчики смогут активировать одной строчкой кода, поэтому функция быстро охватит большинство популярных программ.

Почему в этот раз обещаниям стоит верить?
На самом деле все три возможности Apple демонстрировала еще на WWDC-2024, но тогда это были лишь лабораторные прототипы. По инсайдерским данным Bloomberg, команда пересмотрела приоритеты и потратила год на оптимизацию моделей под Neural Engine чипов A18 и M4. Результат — задержка отклика сократилась до 0,5 секунды, а точность распознавания интентов превысила 94 %. Именно эти цифры, по словам руководства, дали зеленый свет релизу.
Чего ждать дальше?
iOS 26 станет стартовой площадкой: сразу после запуска те же возможности получат iPadOS 26, macOS 26 Tahoe и visionOS 26. Для Mac Apple готовит отдельный сценарий, где с помощью Siri можно будет управлять окнами Stage Manager, а на гарнитуре Vision Pro — создавать сценарии автоматизации жестом руки и голосом одновременно. Если компания придержится графика, публичная бета стартует в июле, а финальный релиз — в сентябре вместе с iPhone 17.
Персональный контекст, многошаговые действия и понимание экрана превращают Siri из «голосовой кнопки» в настоящего ассистента, который понимает, что вы делаете, и предлагает следующий шаг. iOS 26 пока не делает революции уровня ChatGPT, но решает повседневные мелочи, с которыми ИИ на смартфоне сталкивается чаще всего. Если заявленный функционал будет работать без задержек и ошибок, именно эти три новшества могут вернуть Siri доверие пользователей и снова вывести ассистента в высшую лигу мобильной автоматизации.