Gemini внутри Siri – какими будут новые AI-функции Apple и Google
- Apple интегрирует модели Google Gemini в Siri для расширения функциональности iPhone.
- Инновации включают улучшенный голосовой ввод и автоматизацию задач.
Apple готовит масштабное обновление Siri, которое может полностью изменить способ взаимодействия с iPhone. В основе новой системы окажется мощная модель искусственного интеллекта от Google, что открывает ряд новых возможностей.
Apple официально подтвердила, что новые возможности голосового ассистента Siri будут работать на базе моделей Google Gemini. Это решение фактически означает переход к более мощной архитектуре искусственного интеллекта, которая должна существенно расширить функциональность iPhone. Об этом пишет 9to5mac.
Смотрите также Главный завод Apple атаковали хакеры: похищены важные документы и проекты устройств
Какой станет Siri после интеграции с Gemini?
Идея заключается в сочетании двух подходов: продвинутых моделей Google и частной экосистемы Apple, обрабатывающей данные локально или в защищенных облачных средах. Таким образом пользователи получат более умного ассистента, который способен не только отвечать на запросы, но и выполнять сложные многошаговые задачи.
Что такое "персональный интеллект" в новой Siri?
Одной из ключевых концепций станет так называемый персональный интеллект называемый персональный интеллект. Он позволит Siri анализировать данные из разных приложений и формировать более контекстные ответы.
Например, ассистент сможет:
- находить информацию в электронной почте и календаре;
- анализировать фотографии и видео;
- использовать заметки и документы;
- учитывать историю действий пользователя в приложениях.
Это означает, что Siri фактически превратится в универсальный интерфейс ко всем данным смартфона. По данным предварительных демонстраций и утечек, новая система получит несколько ключевых возможностей.
Сможет ли Siri автоматизировать повседневные задачи?
Да, одним из главных направлений станет автоматизация задач станет автоматизация задач. Siri сможет выполнять действия в разных приложениях одновременно. Например, пользователь может попросить создать список покупок в заметках и автоматически перенести его в корзину доставки.
Также система научится учитывать контекст экрана – то есть понимать, что именно сейчас открыто на устройстве.
Как изменится работа с текстом и голосом?
Как пишет Moomoo, обновленная Siri получит улучшенный голосовой ввод, который сможет "очищать" речь от лишних слов, пауз и повторов, превращая ее в структурированный текст. Это сделает взаимодействие более естественным и приблизит голосовое управление к реальному диалогу.
Еще одна перспективная функция – создание динамических элементов интерфейса. В экосистеме Google подобные возможности уже тестируются на Android: система может генерировать виджеты и элементы экрана на основе контекста пользователя.
Подобная функция потенциально может появиться и в iOS в будущих версиях системы, хотя пока это не подтверждено официально.
Почему это важный шаг для Apple?
Интеграция сторонней AI-модели означает стратегический сдвиг для Apple. Компания фактически признает, что для быстрого развития голосового ассистента нужны внешние технологии.
В то же время это может дать пользователям более мощный и гибкий инструмент, который сочетает производительность больших речевых моделей и защиту персональных данных, характерный для экосистемы Apple.
В результате Siri может превратиться из простого голосового помощника в полноценную систему персонального управления цифровой жизнью.