Apple официально подтвердила, что новые возможности голосового ассистента Siri будут работать на базе моделей Google Gemini. Это решение фактически означает переход к более мощной архитектуре искусственного интеллекта, которая должна существенно расширить функциональность iPhone. Об этом пишет 9to5mac.
Смотрите также Главный завод Apple атаковали хакеры: похищены важные документы и проекты устройств
Какой станет Siri после интеграции с Gemini?
Идея заключается в сочетании двух подходов: продвинутых моделей Google и частной экосистемы Apple, обрабатывающей данные локально или в защищенных облачных средах. Таким образом пользователи получат более умного ассистента, который способен не только отвечать на запросы, но и выполнять сложные многошаговые задачи.
Что такое "персональный интеллект" в новой Siri?
Одной из ключевых концепций станет так называемый персональный интеллект называемый персональный интеллект. Он позволит Siri анализировать данные из разных приложений и формировать более контекстные ответы.
Например, ассистент сможет:
- находить информацию в электронной почте и календаре;
- анализировать фотографии и видео;
- использовать заметки и документы;
- учитывать историю действий пользователя в приложениях.
Это означает, что Siri фактически превратится в универсальный интерфейс ко всем данным смартфона. По данным предварительных демонстраций и утечек, новая система получит несколько ключевых возможностей.
Сможет ли Siri автоматизировать повседневные задачи?
Да, одним из главных направлений станет автоматизация задач станет автоматизация задач. Siri сможет выполнять действия в разных приложениях одновременно. Например, пользователь может попросить создать список покупок в заметках и автоматически перенести его в корзину доставки.
Также система научится учитывать контекст экрана – то есть понимать, что именно сейчас открыто на устройстве.
Как изменится работа с текстом и голосом?
Как пишет Moomoo, обновленная Siri получит улучшенный голосовой ввод, который сможет "очищать" речь от лишних слов, пауз и повторов, превращая ее в структурированный текст. Это сделает взаимодействие более естественным и приблизит голосовое управление к реальному диалогу.
Еще одна перспективная функция – создание динамических элементов интерфейса. В экосистеме Google подобные возможности уже тестируются на Android: система может генерировать виджеты и элементы экрана на основе контекста пользователя.
Подобная функция потенциально может появиться и в iOS в будущих версиях системы, хотя пока это не подтверждено официально.
Почему это важный шаг для Apple?
Интеграция сторонней AI-модели означает стратегический сдвиг для Apple. Компания фактически признает, что для быстрого развития голосового ассистента нужны внешние технологии.
В то же время это может дать пользователям более мощный и гибкий инструмент, который сочетает производительность больших речевых моделей и защиту персональных данных, характерный для экосистемы Apple.
В результате Siri может превратиться из простого голосового помощника в полноценную систему персонального управления цифровой жизнью.


