Про це повідомляє Portaltele.
Читайте також: Великобританія вклала мільйони в розробку мікророботів для підземних робіт
За розробкою стоїть команда вчених з Каліфорнійського університету в Берклі і група експертів Google Brain – одного з дослідних підрозділів Google зі штучного інтелекту. Їхня нова система навчила чотирилапого робота перетинати як знайому місцевість, так і незнайому.
Глибоке навчання з підкріпленням можна використовувати для автоматизації низки завдань. Якщо ми зможемо навчити робота ходити з нуля в реальному світі, то ми зможемо створити контролери, які ідеально адаптовані до кожного робота і навіть окремих ландшафтів, та дозволять досягати кращої маневреності, енергоефективності та надійності,
– наголосили дослідники.
Навчання з підкріпленням – це, по суті, метод батога і пряника адаптований для штучного інтелекту. Він використовує винагороду або покарання при досягненні або недосягненні цілей.
Для своїх експериментів вчені взяли робота Minitaur. Вони розробили систему, що складається з робочої станції, яка оновлювала дані нейронної мережі, завантажувала інформацію в Minitaur і вивантажувала назад. Чіп NVIDIA Jetson TX2 на борту робота відповідав за обробку інформації.
Тренування чотириногого робота Minitaur – дивіться відео
Робот крокував на впродовж 2 годин і зробив 160 000 кроків. За цей час алгоритм винагороджував робота за переміщення вперед і карав, якщо він застрягав на місці або давав дуже великий крен в сторону.
Читайте також: Robugtix представила складного шестиногого робота Z6
В результаті був створений алгоритм руху, що дозволив роботу в будь-якій ситуації вибирати оптимальну траєкторію руху.
Більше новин, що стосуються подій зі світу технологій, ґаджетів, штучного інтелекту, а також космосу читайте у розділі Техно