Хотя Apple активно демонстрировала новые возможности искусственного интеллекта, в частности в переводе сообщений, видеозвонках и телефонных разговорах, о Siri почти не говорилось, информирует 24 Канал. Самое большое упоминание – это объяснение, что обещанные ранее функции еще не готовы.
Смотрите также iOS 26 для iPhone: что изменится на смартфоне после обновления
Apple кратко отметила, что Siri стала "более естественной и полезной", однако более персонализированные функции, о которых компания говорила еще на прошлогоднем WWDC, все еще находятся в разработке.
Мы продолжаем работать над тем, чтобы сделать Siri более персонализированной. Это требует больше времени, чтобы соответствовать нашим стандартам качества,
– заявил Крейг Федериги, старший вице-президент Apple по программному обеспечению.
Молчание вокруг Siri выглядит все более странным
Apple уже не первый год критикуют за то, что она отстает в гонке генеративного ИИ от OpenAI, Google или Anthropic. Ее искусственный интеллект почти не упоминается среди топовых решений для "продвинутых" пользователей, а Siri так и не стала полноценным конкурентом новым AI-агентам.
Особенно контрастно молчание Apple выглядело на фоне агрессивного продвижения конкурентов.
- Google, например, недавно открыл бесплатный доступ к функции Gemini, которая позволяет Android-пользователям получать ответы на изображения на экране.
- OpenAI, тем временем добавляет все больше ранее платных функций в бесплатную версию ChatGPT.
- Microsoft в свою очередь представила в Windows 11 возможность получать AI-подсказки прямо в Проводнике файлов – например, размыть часть фото или быстро сгенерировать резюме документа.
Между тем Apple столкнулась с трудностями с Apple Intelligence – после запуска некоторые функции пришлось ограничить. В частности, из-за жалоб на некорректные итоги новостей в уведомлениях, компания временно отключила эту функцию для некоторых категорий приложений.
Apple фокусируется на практических, но мелких обновлениях
В то же время следует заметить, что Apple придерживается собственного подхода к работе и внедрением функций на базе искусственного интеллекта. Она выбрала более практический подход и пытается реализовать действительно полезные и прикладные функции, которые улучшат взаимодействие пользователя с устройством.
На нынешней презентации Apple сделала ставку на ряд прикладных изменений, большинство из которых работают благодаря Apple Intelligence и частично ChatGPT. Например, функция Image Playground позволяет превратить фото друга в стилизованное произведение искусства. Все эти инструменты используют OpenAI.
Компания также открыла разработчикам доступ к собственной локальной языковой модели, а пользователи теперь могут переводить речь в FaceTime, звонках и сообщениях в режиме реального времени.
Визуальные возможности тоже получили развитие – Apple продемонстрировала функцию, позволяющую "видеть и действовать" в любом приложении: можно задать вопрос ChatGPT о том, что видно на экране, или найти похожие товары в Google, Etsy и других сервисах.
Надежды на поддержку Gemini пока не оправдались
Часть пользователей ожидала, что в этом году Apple расширит перечень AI-сервисов на iOS, в частности позволит Siri работать с Gemini от Google для сложных запросов. Однако этого не произошло.
Еще в прошлом июне Крейг Федериги выразил надежду, что пользователи Apple Intelligence смогут выбирать модель ИИ, которую хотят использовать – в частности упомянул и Gemini.
В феврале в бэкэнде Apple обнаружили признаки потенциальной интеграции с этой платформой. А в апреле, во время судебного процесса Google по монополии в поиске, Сундар Пичаи подтвердил планы подписать соглашение с Apple до середины 2025 года и развернуть интеграцию до конца года. Но пока все только ждут.