Первые детали

Компания Google показала прототип AR-очков Project Astra, которые, судя по всему, уже тестируются в реальном мире, вне лаборатории. Очки являются частью долгосрочного плана компании по созданию целой экосистемы различного оборудования с поддержкой дополненной реальности и возможностями мультимодального искусственного интеллекта. На этом этапе они еще не готовы к выпуску и предлагают далеко не все возможности, о которых мечтают разработчики, поэтому пока мы будем видеть только демо-версии, призванные привлечь внимание потребителей, разработчиков и даже конкурентов, сообщает 24 Канал со ссылкой на TechCrunch.

Смотрите также Google рассекретила две новые разработки в области ИИ: что готовит компания

Вместе с очками Google также анонсировал новую операционную систему Android XR (расширенная реальность, которая объединит виртуальную и дополненную реальности). Она позволит разработчикам создавать новые возможности для устройств XR, таких как очки и гарнитуры. На этой ОС будут работать очки Project Astra, а также недавно анонсированная гарнитура Project Moohan от Samsung, которая появится в продаже где-то в следующем году.

В отличие от той же Samsung или Apple, компания Google не пытается охватить промежуточный этап технологии, выпуская габаритную гарнитуру, как Vision Pro или Project Moohan, чтобы когда-то уменьшить ее до более удобного формфактора. Она целится сразу на обычные очки, чтобы вы могли носить их постоянно, даже на улице.

Прежде всего очки предназначены для предоставления информации, но не являются полноценным компьютером, как это пытаются делать конкуренты. Компания, судя по всему, не ожидает, что вы будете просматривать страницы в интернете, играть в игры или смотреть фильмы. Но встроенные экраны покажут вам достаточно для навигации, общения, поиска информации, подсказок и подобного.

В опубликованном ролике мы видим несколько примеров использования:

  • В первом случае пользовательница идет по улице. Ее руки заняты, поэтому она не может пользоваться смартфоном. Однако ей не нужны свободные руки для использования Project Astra, ведь очки реагируют на голос. Она просит Gemini сообщить, что произошло в чате с ее подругами. После этого мы видим картинку глазами самой девушки. На экране перед ней возникает краткий отчет, выведенный благодаря резюмированию недавних диалогов. Судя по всему, всё дублируется в наушник в виде голоса. ИИ сообщает, что подруги пригласили ее в заведение на праздник.
  • Следующий шаг – вопрос о том, есть ли в этом заведении веганское меню. ИИ в этом случае обращается к информации в интернете, чтобы выяснить подробности о месте и выдает на экране детали, такие как оценка ресторана, отзыв о нем и озвучивает сам ответ о наличии веганских блюд.
  • После этого пользовательница просит Gemini сказать подругам, что она придет и добавить упоминание о голубой одежде, которую она выберет для вечера. Не совсем понятно, как именно это работает. Предположительно, очки будут иметь функцию, которая сможет комбинировать ваш гардероб, предлагая новые идеи для сочетания, для чего нужно будет показать ему все, что вы имеете в шкафу. Как бы там ни было, но после этой просьбы Gemini формирует новое сообщение для чата и отправляет его после подтверждения.
  • После этого владелица очков просит подсказать магазин для покупки подарочной карты. ИИ ищет на Google Картах, предлагает магазин и после подтверждения выводит на экран перед глазами небольшую карту с проложенным путем. То есть в этом случае очки выступают навигатором.
  • По дороге в магазин девушка встречает заведение уличной еды. Однако все меню имеет только корейский текст. Автору достаточно было сказать "Hey, Gemini", и система сразу на экране предлагает перевести меню, понимая, на что она смотрит. После подтверждения перед глазами появляется перевод. Пользовательница задает дополнительные вопросы о блюдах, чтобы выбрать ту, которая ей нравится. После этого ИИ помогает общаться с работником, переводя фразы.
  • Наконец в финальной демонстрации автор просит о помощи в размещении полки на стене. ИИ подсказывает различные варианты того, как это может выглядеть в плане дизайна. Пользовательница выбирает один из них и Gemini озвучивает пошаговую стратегию. На одном из этапов он предлагает убедиться в том, что доска будет висеть ровно, поэтому напоминает об использовании уровня (устройство с пузырьком воздуха внутри, который показывает, ровная ли поверхность). Но владелица очков не помнит, где он. Поэтому она спрашивает о расположении предмета. Gemini отвечает: "Последний раз я видел уровень на комоде рядом". Подобное использование мы уже видели ранее, когда впервые увидели эти очки в кадре. Тогда нам показывали использование ИИ с использованием камеры на примере смартфона. Но стоит учесть, что такое применение будет возможным лишь тогда, когда вы постоянно показываете окружающее пространство вашим очкам.

Смотрите демонстрацию возможностей очков: видео

Журналисты, которые видели очки во время демонстрации, говорят, что они имели порты USB-C, в том числе прозрачные пластиковые, под которыми было видно все компоненты. Но никому не разрешили делать фото.

Эбнер Ли из 9to5Google говорит, что Project Astra использует экраны microLED от компании Raxium, которую Google приобрела в 2022 году. В ее основе лежит нечто уникальное, что пока что "находится на этапе исследований и разработок".

На правой дужке очков есть сенсорная панель. Одна кнопка расположена на верхнем краю, а вторая — внизу. Верхняя кнопка делает снимки, а вторая активирует Gemini. После включения Gemini он остается активным, но вы можете коснуться очков, чтобы приостановить работу помощника.

Эбнер Ли говорит, что получил демонстрацию перевода в реальном времени, и это "было идеально". Gemini также мог переводить знаки. Он также показал искусственному интеллекту обложку альбома и попросил воспроизвести песню из него. ИИ немедленно запустил песню на YouTube Music.

Когда эти очки могут выйти, пока неизвестно. Как и их цена.