Электромобили Tesla с автопилотом продолжили попадать в ДТП, что приводит к десяткам смертей

8 мая 2024, 14:04
Читати новину українською

Источник:

The Verge

В США продолжается расследование трагического инцидента с участием Tesla Model Y и студента, которое выявило закономерности, связанные с функциями автопилота Tesla. Недавно опубликованная информация позволяет сделать вывод, что водитель автомобиля Tesla, который попал в аварию, использовал "Автопилот" - функцию помощи водителю, которую Tesla позиционирует как шаг к полностью автономным транспортным средствам.

Расследование, которое тщательно изучило сотни подобных инцидентов, осветило повторяющуюся тенденцию невнимательности водителя в сочетании с ограничениями технологии Tesla, что приводит к многочисленным травмам и десяткам смертельных случаев.

Читайте на сайте Владелец Cybertruck намеренно засунул палец под крышку капота и сразу же об этом пожалел

Что раскрыло расследование

По данным Национальной администрации безопасности дорожного движения (NHTSA), водители, которые полагались на автопилот или полное самостоятельное управление, часто не были адекватно вовлечены в выполнение задачи, тогда как технология Tesla не смогла обеспечить постоянное внимание водителя, или гарантировать его безопасность.

Расследование охватило 956 аварий с января 2018 года по август 2023 года. Среди этих аварий произошло 29 смертельных случаев, причем 211 инцидентов были связаны с лобовыми столкновениями с транспортными средствами или препятствиями.

Особое беспокойство вызывали случаи, когда автомобили Tesla сталкивались со стационарными машинами экстренных служб, припаркованными на обочинах, часто не замечая таких предупредительных средств, как фонари и конусы.

"Автопилот" Tesla опасен

В отчете NHTSA отмечается, что Tesla не смогла спроектировать автопилот и систему полного автономного вождения таким образом, чтобы поддерживать вовлеченность водителя, что привело к случаям, когда водители пренебрегали правилами безопасности и полагались исключительно на систему, даже когда опасность была заметна заранее.

В многочисленных авариях, рассмотренных NHTSA, водители имели достаточно времени, чтобы отреагировать, но не смогли уклониться, о чем свидетельствуют журналы аварий и данные компании Tesla.

NHTSA также раскритиковала подход Tesla к автоматизации 2-го уровня, отметив, что автопилот, как правило, отключается, а не поощряет водителя к участию в регулировании рулевого управления.

Кроме того, NHTSA выразила беспокойство относительно брендинга Tesla, утверждая, что такие термины, как "Автопилот", могут ввести водителей в заблуждение, заставив их поверить, что система работает автономно. Эта проблема привела к расследованию маркетинговых практик Tesla Генеральным прокурором Калифорнии и Департаментом автотранспорта.

Смотрите также Tesla отзывает все проданные Cybertruck из-за серьезной неисправности

Tesla отреагировала

Реакция Tesla на расследование включала добровольный отзыв и обновление программного обеспечения, направлено на улучшение предупреждений автопилота. Однако NHTSA начала NHTSA начала новое расследование относительно адекватности этого обновления после критики со стороны экспертов по безопасности.

Эти выводы противоречат утверждениям Илона Маска о безопасности Tesla и прогресс в создании полностью автономных автомобилей.