Как сообщает ресурс SlashGear, инженеры MIT разработали датчик GelSight, который создает тактильные сигналы на основе изображения объектов и предсказывает, к какому предмету и в какой его части затрагивает манипулятор роботизированной руки.
Читайте также: Нейросеть дописала симфонию, написанную 115 лет назад
Обучение ИИ. Для обучения системы использовалась веб-камера, с помощью которой было записано около 12 000 роликов, которые демонстрируют различные вещи. Полученные записи после разбивки на кадры составили базу данных из более чем 3 миллионов изображений, сопоставленных с тактильными сигналами.
По словам ученых, на текущем этапе разработки робот может представить ощущение прикосновения к плоской поверхности или острого края.
Глава команды исследователей Юньчжу Ли утверждает: касаясь окружающей среды, модель может предсказать взаимодействие с предметом из чисто тактильных ощущений. Он также отметил, что если объединить два чувства (зрение и осязание), можно расширить возможности робота и уменьшить объем данных, необходимых для выполнения задач, которые связаны с манипулированием и захватом объектов.
Будущее разработки. В перспективе исследователи надеются расширить возможности модели для повышения точности взаимодействий с окружающей средой.
Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно