Предлагаем вместе с 24 Каналом разобрать, какие именно возможности, уже известны в экосистеме Google, появились в iOS 26 и что изменится на смартфонах iPhone после обновления.
Смотрите также Apple представила visionOS 26: прокрутка взглядом, пространственные виджеты и совместный просмотр
Фильтрация звонков и ассистент по удержанию на линии
Функция фильтрации звонков, известная как Screen Call, появилась в Android еще с версии 12, а на Pixel-смартфонах она доступна еще дольше. На Pixel 7 и более новых моделях эта опция может автоматически отвечать на подозрительные звонки, определяя, или это спам.
Apple представила подобную функцию в iOS 26, которая также работает автоматически. Для пользователей, которые переходят с Android на iOS, это станет приятным дополнением.
Еще одна знакомая функция – помощь при удержании на линии (Hold Assist). Google внедрила ее на Pixel в 2020 году, а в прошлом году она начала появляться на других устройствах.
В iOS 26 эта опция работает так же – вместо того, чтобы слушать музыку ожидания, можно отложить телефон, а система оповестит, когда на линии появится человек. Это очень удобно, особенно когда приходится долго ждать.
Перевод в реальном времени в приложении Телефон
Недавние модели Samsung уже имеют встроенный перевод в реальном времени в телефонном приложении, и Apple представила похожую функцию на WWDC 2025. Обе системы обеспечивают голосовой перевод разговоров между собеседниками, которые общаются на разных языках.
Хотя для сложных бесед эти инструменты не подходят, они прекрасно справляются с короткими транзакционными диалогами, например, для бронирования столика в ресторане, номера в отеле или записи в салон.
Эта функция распространяется и на сообщения. В Samsung, к тому же есть возможность адаптировать стиль текста, чтобы избежать слишком непринужденного тона в официальных ситуациях, и это может быть полезным во многих случаях.
Работа с контентом на экране
Google давно работает над контекстной осведомленностью для подсказок и поиска информации на основе того, что изображено на экране пользователя. Если быть точным, то первые наработки появились еще в 2012 году.
С появлением Google Lens и функции Circle to Search в эпоху генеративного ИИ, система пытается лучше понять, что именно пользователь ищет. Apple в свою очередь представила подобную возможность в iOS 26 на основе снимков экрана.
На устройствах с Apple Intelligence после создания скриншота появляются новые опции. Например, если на экране есть дата и время, система предложит создать событие в календаре. Также можно выделить объект на экране для поиска.
В отличие от Circle to Search от Google, которая требует специальных жестов, подход Apple кажется более интуитивным для тех, кто еще не знаком с этой функцией.
Переключение между Фото и Видео в Камере
В iOS 26 интерфейс приложения камеры претерпел некоторые важные изменения – по умолчанию отображаются только два режима, Фото и Видео, а остальные доступны через прокрутку. Это напоминает переключатель между фото и видео в программе камеры на Pixel, где эта опция всегда под рукой независимо от режима съемки. Обе системы делают акцент на основных функциях, что удобно для большинства пользователей.
Хотя Apple редко признает заимствование идей, многие функции, представленных на WWDC 2025, уже давно знакомы пользователям Android. Следует добавить, что такие заимствования не умаляют их ценности для экосистемы iOS, ведь Apple всегда переизобретают и адаптируют их, делая опыт использования iPhone более удобным и функциональным.
Поэтому конкуренция между платформами только способствует совершенствованию обеих систем и взаимные копирования не является чем-то негативным, а наоборот. В итоге победа в таких поединках операционных систем всегда на стороне пользователя.