Хотя Apple активно демонстрировала новые возможности искусственного интеллекта, в частности в переводе сообщений, видеозвонках и телефонных разговорах, о Siri почти не говорилось, информирует 24 Канал. Самое большое упоминание – это объяснение, что обещанные ранее функции еще не готовы.

Смотрите также iOS 26 для iPhone: что изменится на смартфоне после обновления

Apple кратко отметила, что Siri стала "более естественной и полезной", однако более персонализированные функции, о которых компания говорила еще на прошлогоднем WWDC, все еще находятся в разработке.

Мы продолжаем работать над тем, чтобы сделать Siri более персонализированной. Это требует больше времени, чтобы соответствовать нашим стандартам качества,
– заявил Крейг Федериги, старший вице-президент Apple по программному обеспечению.

Молчание вокруг Siri выглядит все более странным

Apple уже не первый год критикуют за то, что она отстает в гонке генеративного ИИ от OpenAI, Google или Anthropic. Ее искусственный интеллект почти не упоминается среди топовых решений для "продвинутых" пользователей, а Siri так и не стала полноценным конкурентом новым AI-агентам.

Особенно контрастно молчание Apple выглядело на фоне агрессивного продвижения конкурентов.

  • Google, например, недавно открыл бесплатный доступ к функции Gemini, которая позволяет Android-пользователям получать ответы на изображения на экране.
  • OpenAI, тем временем добавляет все больше ранее платных функций в бесплатную версию ChatGPT.
  • Microsoft в свою очередь представила в Windows 11 возможность получать AI-подсказки прямо в Проводнике файлов – например, размыть часть фото или быстро сгенерировать резюме документа.

Между тем Apple столкнулась с трудностями с Apple Intelligence – после запуска некоторые функции пришлось ограничить. В частности, из-за жалоб на некорректные итоги новостей в уведомлениях, компания временно отключила эту функцию для некоторых категорий приложений.

Apple фокусируется на практических, но мелких обновлениях

В то же время следует заметить, что Apple придерживается собственного подхода к работе и внедрением функций на базе искусственного интеллекта. Она выбрала более практический подход и пытается реализовать действительно полезные и прикладные функции, которые улучшат взаимодействие пользователя с устройством.

На нынешней презентации Apple сделала ставку на ряд прикладных изменений, большинство из которых работают благодаря Apple Intelligence и частично ChatGPT. Например, функция Image Playground позволяет превратить фото друга в стилизованное произведение искусства. Все эти инструменты используют OpenAI.

Компания также открыла разработчикам доступ к собственной локальной языковой модели, а пользователи теперь могут переводить речь в FaceTime, звонках и сообщениях в режиме реального времени.

Визуальные возможности тоже получили развитие – Apple продемонстрировала функцию, позволяющую "видеть и действовать" в любом приложении: можно задать вопрос ChatGPT о том, что видно на экране, или найти похожие товары в Google, Etsy и других сервисах.

Надежды на поддержку Gemini пока не оправдались

Часть пользователей ожидала, что в этом году Apple расширит перечень AI-сервисов на iOS, в частности позволит Siri работать с Gemini от Google для сложных запросов. Однако этого не произошло.

Еще в прошлом июне Крейг Федериги выразил надежду, что пользователи Apple Intelligence смогут выбирать модель ИИ, которую хотят использовать – в частности упомянул и Gemini.

В феврале в бэкэнде Apple обнаружили признаки потенциальной интеграции с этой платформой. А в апреле, во время судебного процесса Google по монополии в поиске, Сундар Пичаи подтвердил планы подписать соглашение с Apple до середины 2025 года и развернуть интеграцию до конца года. Но пока все только ждут.