Официальное подтверждение партнерства между Apple и Google в сфере искусственного интеллекта стало главной сенсацией начала 2026 года. Однако за кулисами этой сделки на миллиард долларов скрыта стратегия, демонстрирующая непоколебимый подход Купертино к собственному бренду. Согласно последнему отчету The Information, Apple не просто «устанавливает» Google Gemini в свои устройства — она проводит масштабную независимую настройку этой модели на собственных мощностях.
Команда Ябко разобралась, почему Apple решила пойти по пути «white-labeling» (использование технологии без упоминания бренда разработчика) и как это изменит характер вашей Siri уже этой весной.

Контроль над «личностью»: Siri должна оставаться собой
Главная цель Apple — избежать ситуации, когда ваш iPhone превращается в рекламную площадку для Google или просто в очередное зеркало стороннего чат-бота. В отличие от интеграции ChatGPT, где Siri прямо запрашивает разрешение на обращение к сервису OpenAI, с Gemini ситуация кардинально иная. Apple хочет, чтобы пользователь воспринимал интеллект своего смартфона как единое целое.
Apple проводит независимое дообучение (fine-tuning) базовых моделей Gemini на собственных массивах данных. Это делается для того, чтобы:
- Сохранить уникальный «Tone of Voice». Siri должна звучать как Siri — сдержанно, профессионально, лаконично и с тем самым фирменным чувством юмора. Чат-боты Google часто бывают слишком «болтливыми», тогда как Apple предпочитает быстрые и конкретные действия.
- Визуальная нативность. В текущем коде бета-версий iOS 26.4 нет никаких упоминаний о Gemini, логотипов Google или ссылок на сторонние сервисы. Для вас это будет выглядеть как магия Apple, где Siri просто стала в десять раз умнее.
- Соответствие стандартам безопасности. Apple самостоятельно выставляет «предохранители» (guardrails), которые определяют, на какие темы Siri может дискутировать, а какие являются табуированными или требуют особой осторожности.
Технология Fine-Tuning: как Apple меняет «мозги» Google
Почему Apple не создала собственную модель такого масштаба с нуля? Создание LLM уровня Gemini Ultra требует лет сбора данных и тераватт энергии. Apple выбрала более рациональный путь: взять мощный «двигатель» Google и настроить его под свои задачи.
Процесс дообучения, который проводит Apple, включает использование закрытых внутренних датасетов компании. Это позволяет модели Gemini лучше понимать специфику устройств Apple: от названий пунктов меню в настройках до того, как работают Shortcuts (Быстрые команды). Таким образом, Siri сможет не просто рассказывать вам факты о космосе, но и понимать команды вроде: «Обработай это фото с помощью Gemini, но сохрани его в моем альбоме «Работа» с тегом конфиденциальности».
Приватность: Ваши данные не попадут в Google
Это был главный камень преткновения во время переговоров. Apple выставила жесткое условие: использование архитектуры Gemini не означает доступ Google к данным пользователей.
Вся обработка запросов, требующих мощностей Gemini, будет происходить через Private Cloud Compute (PCC). Это собственная облачная инфраструктура Apple, построенная на базе серверов с чипами Apple Silicon (серии M). Когда вы задаете сложный вопрос, он шифруется и отправляется на сервер Apple, где запущена «доработанная» версия Gemini. Google предоставляет только код модели, но не видит ни запроса, ни результата. Ваша цифровая личность остается надежно запертой в экосистеме Apple.

Siri становится эмпатичной: от фактов к ощущениям
Одним из самых интересных аспектов отчета от 13 января является информация о том, что Apple настраивает Gemini на распознавание эмоционального контекста. Siri годами была механической. Теперь же, благодаря глубинному анализу голоса и подбору слов, ассистент сможет адаптировать свое поведение.
Если вы говорите Siri, что у вас был тяжелый день, она не просто выдаст список ближайших кафе, а сможет предложить медитацию, автоматически приглушить свет в доме (HomeKit) и поставить успокаивающую музыку. Это превращение из «поискового робота» в настоящего цифрового спутника.
Распределение обязанностей: многоуровневый интеллект
Чтобы понять, как будет работать ваш iPhone 16 или 17 после обновления, представьте Siri как сложную систему из трех уровней:
- Локальный (On-device). Маленькие модели Apple, работающие мгновенно без интернета. Управление таймерами, музыкой, базовыми функциями системы.
- Персональный (Apple Foundation Models). Облачные модели Apple, имеющие доступ к вашей почте, сообщениям и календарю. Они знают, где вы были вчера и с кем у вас встреча завтра.
- Глобальный (Fine-tuned Gemini). «Тяжелая артиллерия», которая включается для запросов о мировых знаниях, программировании, написании сложных текстов или генерации идей.
Благодаря тому, что Apple самостоятельно дирижирует всеми тремя уровнями, переключение между ними будет абсолютно незаметным для пользователя.
Когда ждать результатов?
Первый этап большого обновления мы увидим уже в марте 2026 года вместе с iOS 26.4. Это будет момент истины для Siri. Если Apple удастся бесшовно интегрировать Gemini под собственным брендом, это станет крупнейшим программным апдейтом с момента появления самого iPhone.
Мы в Ябко уверены: Apple в очередной раз доказывает, что главное — не то, кто изобрел технологию, а то, как она внедрена в жизнь пользователя. Самостоятельная настройка Gemini — это способ получить невероятную мощность, не потеряв при этом «души» Apple.