Рынок гуманоидных роботов быстро развивается, и компании экспериментируют с различными подходами к взаимодействию машин с людьми. Одним из ключевых направлений становится обучение роботов пониманию человеческих эмоций, в частности через анализ мимики. Об этом пишет BGR.

Смотрите также На ощупь как человек: в Китае представили первого в мире реалистичного робота Moya

Как роботы могут научиться понимать контекст?

Над этим работает филиппинский ученый Анжелика Лим, доцент по компьютерным наукам Университета Саймона Фрейзера. В интервью CBC она объяснила, что ее цель – не сделать роботов чрезмерно сочувствующими, а наоборот, избежать ситуаций, когда искусственная эмпатия вредит людям. По словам исследовательницы, слишком эмоциональные чатботы могут способствовать формированию зависимости или даже провоцировать серьезные психические проблемы.

Сегодня чатботы и гуманоидные роботы часто демонстрируют преувеличенную эмпатию и активно задают уточняющие вопросы, чтобы удерживать пользователя в разговоре. При этом их реакции обычно заранее запрограммированы. Даже если сервисы вроде ChatGPT позволяют выбирать стиль или настроение ответов, такие модели не всегда понимают реальное эмоциональное состояние человека.

Команда Лим работает над алгоритмами, которые анализируют выражения лица и реакции собеседника. Во время демонстрации робот пытался пошутить, но не получил ожидаемой реакции. Вместо стандартного ответа машина распознала отсутствие эмоционального отклика и отреагировала ироничной фразой, показав, что способна адаптироваться к ситуации.

Исследовательница отмечает, что базовые технологии и платформы, на которых строится эта разработка, существуют уже около десяти лет. Однако задача сделать роботов такими, воспринимающими людей как настоящих собеседников, до сих пор остается сложной.

Интерес к более глубокому анализу человеческих эмоций растет не только в академической среде. Недавно Apple приобрела израильский AI-стартап, который владеет патентами на технологии детального анализа мимики и голоса. Хотя планы компании официально не раскрываются, сделка указывает на стратегический интерес к подобным решениям.

Цель команды Лим – научить роботов понимать негласные социальные правила, которые люди воспринимают интуитивно. По ее словам, многие вещи люди просто знают без объяснений, но эти правила почти никогда не формализованы. Именно это и пытаются систематизировать исследователи, чтобы передать такое понимание машинам.