Как работает новый AI-помощник для дорожной безопасности?

Команда исследователей под руководством доцента кафедры гражданской и системной инженерии Хао Янга представила инструмент на базе генеративного искусственного интеллекта, созданный для прогнозирования дорожно-транспортных происшествий и анализа факторов, вызывающих их. Цель проекта – предоставить проектировщикам инфраструктуры и политикам мощный инструмент для принятия решений, которые помогут уменьшить количество аварий, пишет 24 Канал со ссылкой на Tech Xplore.

Смотрите также Uber позволит водителям зарабатывать на искусственном интеллекте, когда они не за рулем

В основе SafeTraffic Copilot лежат большие языковые модели (LLM), которые прошли обучение на огромном массиве данных. Система проанализировала более 66 тысяч описаний ДТП, учитывая различные переменные: от погодных условий и состояния дорожного покрытия до таких числовых показателей, как уровень алкоголя в крови водителей. Кроме того, ИИ обработал спутниковые снимки и фотографии с мест аварий.

В реальных условиях модель продемонстрировала точность прогнозов на уровне 70%, говорится на сайте Johns Hopkins University. SafeTraffic Copilot имеет потенциал стать основой для ответственной интеграции моделей на основе ИИ в важные сферы, такие как здравоохранение и безопасность людей.

Переосмыслив прогнозирование аварий как задачу на логическое мышление и используя LLM для интеграции письменных и визуальных данных, заинтересованные стороны могут перейти от грубых, агрегированных статистических данных к точному пониманию причин конкретных аварий,
– сказал Янг, чье исследование уже опубликовано в Nature Communications.

Главное отличие SafeTraffic Copilot от предыдущих систем машинного обучения заключается в его способности проводить так называемые анализы what-if ("что, если"). Например, инструмент может спрогнозировать, как изменение продолжительности сигнала светофора с 20 на 30 секунд повлияет на количество аварий на конкретном перекрестке. Ранее подобные прогнозы были невозможными, поскольку старые модели могли работать только с данными, похожими на те, на которых их обучали.

Еще одна важная особенность – это "оценки уверенности". Искусственный интеллект часто называют "черным ящиком", поскольку процесс принятия им решений не всегда прозрачен. SafeTraffic Copilot сообщает, насколько он уверен в своем прогнозе, что позволяет специалистам лучше оценивать риски.

Разработчики отмечают, что модель является гибкой и может быть адаптирована к условиям различных городов, штатов и стран. Например, ее можно настроить для анализа ситуации в странах Юго-Восточной Азии, где большинство аварий происходит с участием мотоциклов, а культура вождения существенно отличается. Для этого достаточно предоставить системе текстовое описание местных особенностей.

В то же время инструмент не призван заменить человека, а должен служить вспомогательным инструментом для обработки информации и выявления закономерностей.