Google углубит интеграцию искусственного интеллекта с Android: какие функции следует ждать

15 мая 2024, 14:01
Читати новину українською

Источник:

9to5Google

Google встраивает Gemini прямо в Android, добавляя контекстную осведомленность в приложениях, нового Ассистента, генеративные функции и еще очень много других возможностей. Собрали основное, что касается этого вопроса и упоминалось на конференции I/O 2024.

Как это будет

Первое, на что Google обращает наше внимание, является тот факт, что теперь Gemini гораздо лучше понимает контекст, когда вы управляете приложениями на смартфоне. Что именно это означает? После официального запуска инструмента в составе Android 15 вы сможете вызывать всплывающее окно Gemini (похожее на то, что появляется сейчас при взаимодействии с Ассистентом), которое будет накладываться поверх приложения, которым вы пользуетесь. Это позволит выполнять контекстно-зависимые действия и запросы.

Смотрите также Большой день ИИ: что показала компания Google на презентации I/O 2024

Google приводит пример быстрой отправки сгенерированных изображений в Gmail и Google Messages.
Функция перетаскивания сгенерированного фото / Фото Google

Компания также продемонстрировала функцию под названием "Ask This Video", которая позволяет пользователям задавать вопросы об определенном видео на YouTube, на которые чат-бот сможет ответить. Google говорит, что это должно работать с "миллиардами" видео.
Функция Ask This Video / Фото Google

Аналогичный инструмент будет запущен и для PDF-файлов. Открывайте документ и спрашивайте ИИ о тех или иных данных из него, чтобы не искать самостоятельно в больших объемах текста.


Функция "Запросить этот PDF" / Фото Google

Функция Circle to Search также получает толчок благодаря встроенному ИИ. Пользователи смогут обвести практически что-либо на своем телефоне и получить соответствующую информацию об этом. Google заявляет, что люди смогут делать это без необходимости переключать приложения. Это распространяется даже на задачи по математике и физике - просто обведите, чтобы получить ответ, что, вероятно, порадует учеников и разочарует учителей.

Нетрудно понять, куда движется эта технология. Как только Gemini получит доступ к вашей библиотеке приложений, он сможет выполнить некоторые из тех высоких обещаний, которые дают конкурирующие компании, занимающиеся разработкой ИИ, такие как Humane и Rabbit. Google заявляет, что "только начинает работать над тем, как ИИ на устройстве может изменить возможности вашего телефона", поэтому можно представить взаимодействие с такими приложениями и сервисами, как такси, доставка еды, покупка билетов и прочее.

Смотрите также Google объединила Поиск с искусственным интеллектом и объявила о новых функциях

В будущем, активировав Gemini, вы увидите динамические подсказки. Это позволит Gemini Nano понять, что происходит на вашем экране. Например, если вы активируете ИИ во время разговора о футболе, предложения могут включать: "Найдите футбольные клубы поблизости от меня" и "Правила футбола для начинающих".

Кроме динамических предложений Gemini, Gemini Nano будет использоваться Gemini Nano будет использоваться TalkBack для создания подробных описаний для неподписанных изображений. Для этого не требуется подключение к интернету, поскольку это происходит быстро на вашем устройстве.

Это обновление поможет восполнить пропущенную информацию — будь то больше деталей о том, что изображено на фотографии, которую прислали родственники или друзья, или о стиле и крое одежды при покупке в интернете.
Пример работы Gemini Nano во время просмотра товаров в интернете / Фото Google

Также мы уже упоминали в предыдущем материале, что Android собирается использовать Gemini Nano, чтобы доставлять "оповещения в режиме реального времени во время звонка, если он обнаружит шаблоны разговора, которые обычно ассоциируются с мошенничеством". Google будет искать признаки мошенничества, например, запросы о личной информации. Это происходит полностью на устройстве и будет функцией по желанию пользователя. Google поделится более подробной информацией об этом позже в этом году.