Електромобілі Tesla з автопілотом продовжили потрапляти в ДТП, що призводить до десятків смертей
Джерело:
The VergeУ США триває розслідування трагічного інциденту за участю Tesla Model Y і студента, яке виявило закономірності, пов'язані з функціями автопілота Tesla. Нещодавно опублікована інформація дає змогу зробити висновок, що водій автомобіля Tesla, який потрапив в аварію, використовував "Автопілот" – функцію допомоги водієві, яку Tesla позиціонує як крок до повністю автономних транспортних засобів.
Розслідування, яке ретельно вивчило сотні подібних інцидентів, висвітлило повторювану тенденцію неуважності водія у поєднанні з обмеженнями технології Tesla, що призводить до численних травм і десятків смертельних випадків.
Читайте на сайті Власник Cybertruck навмисно засунув палець під кришку капота й відразу ж про це пошкодував
Що розкрило розслідування
За даними Національної адміністрації безпеки дорожнього руху (NHTSA), водії, які покладалися на автопілот або повне самостійне керування, часто не були адекватно залучені до виконання завдання, тоді як технологія Tesla не змогла забезпечити постійну увагу водія, або гарантувати його безпеку.
Розслідування охопило 956 аварій з січня 2018 року по серпень 2023 року. Серед цих аварій сталося 29 смертельних випадків, причому 211 інцидентів були пов'язані з лобовими зіткненнями з транспортними засобами або перешкодами.
Особливе занепокоєння викликали випадки, коли автомобілі Tesla зіштовхувалися зі стаціонарними машинами екстрених служб, припаркованими на узбіччях, часто не помічаючи таких попереджувальних засобів, як ліхтарі та конуси.
"Автопілот" Tesla небезпечний
У звіті NHTSA наголошується, що Tesla не спромоглася спроєктувати автопілот і систему повного автономного водіння таким чином, щоб підтримувати залученість водія, що призвело до випадків, коли водії нехтували правилами безпеки та покладалися виключно на систему, навіть коли небезпека була помітна заздалегідь.
У численних аваріях, розглянутих NHTSA, водії мали достатньо часу, щоб відреагувати, але не змогли ухилитися, про що свідчать журнали аварій і дані компанії Tesla.NHTSA також розкритикувала підхід Tesla до автоматизації 2-го рівня, зазначивши, що автопілот, як правило, відключається, а не заохочує водія до участі в регулюванні рульового управління.
Крім того, NHTSA висловила занепокоєння щодо брендингу Tesla, стверджуючи, що такі терміни, як "Автопілот", можуть ввести водіїв в оману, змусивши їх повірити, що система працює автономно. Ця проблема призвела до розслідування маркетингових практик Tesla Генеральним прокурором Каліфорнії та Департаментом автотранспорту.
Дивіться також Tesla відкликає усі продані Cybertruck через серйозну несправність
Tesla відреагувала
Реакція Tesla на розслідування включала добровільне відкликання та оновлення програмного забезпечення, спрямоване на покращення попереджень автопілота. Однак NHTSA розпочала нове розслідування щодо адекватності цього оновлення після критики з боку експертів з безпеки.
Ці висновки суперечать твердженням Ілона Маска про безпеку Tesla та прогрес у створенні повністю автономних автомобілів.