Об этом сообщает arXiv.org.

Читайте также: Робота научили мыть туалет

Ученые из Научно-исследовательского института электроники и телекоммуникаций (ETRI) и Корейского института передовых технологий (KAIST) решили научить робота невербальной коммуникации – жестам. Для этого они собрали датасет из 52 часов записи выступлений спикеров на конференциях TED Talks.

Жесты людей на видео были размечены с помощью открытого алгоритма OpenPose (использовались только движения головы, торса и рук). В результате получилась система, которая воспроизводит положение тела в трехмерном пространстве в соответствии с синтезированной речью.

NAO
Робот NAO научился воспроизводить речь жестами

Затем ученые попросили 46 человек оценить по шкале от 1 до 5, насколько жесты, сопровождающие язык, антропоморфные, соответствуют сказанному и приятны на вид. Оказалось, что воспроизведеннsе алгоритмом жесты превзошли по всем параметрам все другие методы.

Читайте также: В Китае ведущим стал искусственный интеллект: как он выглядит

Полученную систему использовали в гуманоидном роботе NAO (он часто используется в исследованиях взаимодействия роботов с людьми): авторы робота утверждают, что нейросети удалось успешно воспроизвести заданные ему комбинации движений.

Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно