Мы подробно рассказали обо всем, что показали на Google I/O 2024 в отдельном материале. Там же можно подробнее ознакомиться с работой и возможностями функции Project Astra.
Смотрите также Google объединила Поиск с искусственным интеллектом и объявила о новых функциях
Неужели Google разрабатывает очки?
Презентационный ролик начался с того, что неизвестная нам работница компании ходит по комнате со своим смартфоном и общается с ИИ, давая ему задания и задавая вопросы. На что именно она снимает весь этот процесс неизвестно, но в кадре мы видим обе ее руки.
В одном из заданий на 1:13 она спрашивает Gemini: "Ты помнишь, где видел мои очки?"
Машина отвечает: "Да, помню. Твои очки были на столе возле красного яблока", несмотря на то, что этот объект не был в поле зрения в момент, когда был задан вопрос.
Уже через секунду мы видим, что девушка действительно находит очки возле яблока и надевает их. В следующем кадре нам на секунду показывают автора ролика сбоку и мы видим, что она надела очки.
Очки, которые снимали процесс / Скриншот Engadget/Изображение Google
Далее съемка продолжается и специальный прием затемнения кадра дает понять, что теперь все снимается именно с помощью этих очков. Мы слышим сигнал начала записи, а на экране в центре появляется пиктограмма, которая показывает, что микрофоны слышат речь. Этим нам показывают не только то, что очки необычные – они имеют какой-то интерфейс, а значит на борту есть собственное программное обеспечение, – а также тот факт, что взаимодействие с Gemini и его новой функцией Project Astra возможно не только через смартфон, но и через умные очки, которые будут смотреть на мир сквозь камеры и слушать команды через микрофоны.
Еще один интересный момент заключается в том, что на экране теперь появляются ответы на вопросы, которые предоставляет Gemini. Очки предоставляют текст вместе с голосовыми фразами, дублируя его на собственном экране перед глазами пользователя.
Демонстрация Project Astra: видео
Что это такое
Какой вывод мы можем из этого сделать? Очки с прозрачными стеклами и широкими дужками, совсем не похожи на провальные Google Glass, имеют камеру, микрофоны, собственное программное обеспечение и интерфейс, проецируют изображение на стекла перед глазами, воспринимают голосовые команды и взаимодействуют с ИИ. Они также не выглядели очень громоздкими.
Может ли это быть продукт сторонней компании, который Google просто интегрировала со своим искусственным интеллектом? Вполне. Мы пока не имеем ответа на эту загадку, ведь компания не комментирует это никоим образом.
Но мы также знаем, что Google не оставила своих надежд и попыток разработать такое устройство, хотя и отказалась от нескольких предыдущих проектов. Несколько лет назад компания выпустила футуристический ролик, в котором показала свое видение будущего очков дополненной реальности. В видео они, например, обеспечивали перевод живого разговора в реальном времени с человеком, который говорит на иностранном языке.
Также такие очки, как ожидается, смогут накладывать виртуальные элементы на реальный мир, давая пользователям различные подсказки относительно того, куда нужно идти и что они видят, рассказывая об исторических сведениях и помогая на работе, дома или в дороге. В общем сферы использования, особенно в сочетании с ИИ, максимально разнообразны.
После предыдущих неудач Google вполне может разрабатывать новое поколение умных очков, но держать их в тайне, чтобы снова не прогореть на том, что не выполнила каких-то обещаний.