В момент ДТП электромобиль двигался на автопилоте
Один із власників електромобіля Tesla S звинуватив фірмову систему автономного управління виробника — Full Self-Driving (FSD) — у масштабній аварії, в якій постраждали вісім автомобілів та дев’ять осіб, у тому числі й дворічна дитина. Інцидент, відео якого нещодавно з’явилося у Twitter, стався у листопаді 2022 року, напередодні Дня Подяки.
Зі слів власника, автомобіль Tesla S, який рухався на автопілоті тунелем Йерба-Буена у Сан-Франциско, зненацька змінив швидкісну смугу й зупинився. При чому, як видно на кадрах відеоспостереження, жодних перешкод чи автомобілів перед ним не було. В результаті, рух тунелем було заблоковано більш ніж на годину. Не кажучи вже про людей, які опинилися у День Подяки у лікарні.
Але найцікавіше, що аварія сталася через кілька годин після того, як генеральний директор компанії Tesla Ілон Маск написав у Twitter: «Бета-версія Tesla Full Self-Driving тепер доступна для всіх у Північній Америці, хто запитує її з екрана автомобіля, за умови, що ви придбали цю опцію. Щиро вітаємо команду Tesla Autopilot/AI з досягненням важливого рубежу!».
У компанії своєї провини в тому, що трапилося, не бачать. Оскільки на своєму сайті вказали, що «включені функції FSD вимагають активного контролю водія й не роблять автомобіль автономним». Але національну адміністрацію безпеки дорожнього руху США (NHTSA) ця приписка не переконала. За фактом ДТП розпочато розслідування.
За даними NHTSA, з липня 2021 року по червень 2022 року електромобілі Tesla фігурували майже у 70% з 392 аварій за участю автомобілів, оснащених передовими системами допомоги водієві. За інформацією InsideEV’s, регулятор запросив у Маска докладнішу інформацію про автопілот, після того як той написав Twitter, що у січні 2023 року вийде чергове оновлення FSD. Воно дозволить водіям відключати «набридливі» сповіщення про необхідність тримати руки на рульовому колесі.