Об этом сообщает Portaltele.

Читайте также: Великобритания вложила миллионы в разработку микророботов для подземных работ

За разработкой стоит команда ученых из Калифорнийского университета в Беркли и группа экспертов Google Brain – одного из исследовательских подразделений Google из искусственного интеллекта. Их новая система научила четвероногого работа пересекать как знакомую местность, так и незнакомую.

Глубокое обучение с подкреплением можно использовать для автоматизации ряда задач. Если мы сможем научить робота ходить с нуля в реальном мире, то мы сможем создать контроллеры, которые идеально адаптированы к каждому роботу и даже отдельным ландшафтам, и позволят достигать лучшей маневренности, энергоэффективности и надежности,
– отметили исследователи.

Обучение с подкреплением – это, по сути, метод кнута и пряника, адаптированный для искусственного интеллекта. Он использует вознаграждение или наказание при достижении или недостижении целей.

Для своих экспериментов ученые взяли робота Minitaur. Они разработали систему, которая состоит из рабочей станции, которая обновляла данные нейронной сети, загружала информацию в Minitaur и выгружала назад. Чип NVIDIA Jetson TX2 на борту робота отвечал за обработку информации.

Тренировки четвероногого робота Minitaur – смотрите видео

Робот шагал на протяжении 2 часов и сделал 160 000 шагов. За это время алгоритм вознаграждал работа за перемещение вперед и наказывал, если он застревал на месте или давал очень большой крен в сторону.

Читайте также: Robugtix представила сложного шестиногого робота Z6

В итоге был создан алгоритм движения, который разрешил роботу в любой ситуации выбирать оптимальную траекторию движения.

Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно