Ще пів року тому здавалося, що голосовий помічник Apple безнадійно відстав від конкурентів: набір команд стагнував, а «розумні» сценарії доводилося будувати через складні ланцюжки Shortcuts. Після кадрових перестановок у квітні 2025-го підрозділ отримав власний R&D-бюджет і чітке завдання: зробити Siri ключовим інструментом Apple Intelligence. Перші плоди реформи ми побачимо вже восени разом з iOS 26 — і це не косметичні лаги, а три фундаментальні зміни логіки роботи асистента. Саме цьому й буде присвячена стаття Ябко.
Персональний контекст без «хмарного витоку»
Головна перевага Siri над «чужими» LLM-ботами — доступ до екосистемних даних. У 26-й версії система навчиться шукати інформацію у ваших листах, повідомленнях, нотатках і календарях, не покидаючи меж пристрою. Алгоритм локально індексує іменовані сутності: людей зі списку контактів, назви подкастів, файли з iCloud Drive. Завдяки цьому фраза «Увімкни подкаст, який радив Джеймі» запустить саме той епізод, про який згадував друг у Messenger, а запит «Коли приземляється мамин рейс?» поєднає маршрут із листування та дані Flight Tracker у реальному часі. Конфіденційність не страждає: ідентифікатори нікуди не передаються, сервер отримує лише анонімний вектор запиту типу «подкаст-ID 123».
Сотні нових дій та справжній hands-free
Завдяки розширеному API App Actions Siri виходить за межі простих нагадувань і таймерів. Тепер асистент може виконувати складні операції одразу в кількох додатках. Скажіть: «Додай ранкові фото у нотатку про пташині спостереження», — і система сама вибере зображення за часовою міткою, відкриє Notes, вставить медіа у потрібний документ і синхронізує зміни через iCloud. Партнери стартової хвилі — Photos, Notes, Files, Mail, Pages і сторонні додатки, що встигнуть інтегрувати новий Intents SDK. Для користувача це означає можливість керувати iPhone майже повністю голосом, не торкаючись екрана під час приготування вечері чи водіння.
Повноцінна «усвідомленість» екрана
Якщо раніше команда «Нагадайте про це» працювала лише в Mail або Safari, то тепер Siri аналізує вміст будь-якої відкритої програми. Побачили нову адресу в чатику — просто вимовте: «Додай цю адресу до контакту Андрія», і відповідне поле заповниться автоматично. У Safari переглядаєте рецепт? Скажіть: «Збережи інгредієнти в список покупок», — та Reminders сформує чек-лист. Технологія базується на новому фреймворку Screen Context, який розробники зможуть активувати однією строчкою коду, тому функція швидко охопить більшість популярних програм.
Чому цього разу обіцянкам варто вірити?
Насправді всі три можливості Apple показувала ще на WWDC-2024, але тоді вони існували лише як прототип у лабораторії. Згідно з інсайдами Bloomberg, команда переглянула пріоритети й витратила рік на оптимізацію моделей під Neural Engine чипів A18 та M4. Результат — затримка відповіді скоротилася до п’яти десятих секунди, а точність розпізнавання інтентів перевищує 94 %. Саме ці цифри, за словами керівництва, дали зелене світло релізу.
На яке майбутнє варто очікувати?
iOS 26 стане плацдармом: одразу після запуску ті самі можливості отримають iPadOS 26, macOS 26 Tahoe та visionOS 26. Для Mac Apple готує окремий сценарій, де через Siri можна буде управляти вікнами Stage Manager, а на гарнітурі Vision Pro — створювати сценарії автоматизації жестом руки й голосом одночасно. Якщо компанія дотримається графіка, публічна бета стартує в липні, а фінальний реліз — у вересні разом з iPhone 17.
Персональний контекст, багатокрокові дії й усвідомлення екрана перетворюють Siri з «голосового ярлика» на справжнього асистента, який розуміє, що ви робите зараз, і пропонує наступний крок. iOS 26 поки що не робить революції на рівні ChatGPT, зате вирішує щоденні дрібниці, з якими штучний інтелект у смартфоні стикається найчастіше. Якщо обіцяний функціонал запрацює без затримок і помилок, саме ці три нововведення можуть реабілітувати Siri в очах користувачів і повернути асистента в першу лігу мобільної автоматизації.