Tesla «Полностью беспилотный автомобиль» сталкивается с расследованием дефекта после смертельного случая
Tesla «Полностью беспилотный автомобиль» сталкивается с расследованием дефекта после смертельного случая. США начали федеральное расследование с целью выяснить, является ли система частичной автоматизации компании Tesla Inc., позиционируемая как Full Self-Driving, неисправной после серии аварий, одна из которых привела к гибели человека. Национальная администрация безопасности дорожного движения заявила в пятницу, что оценит, способна ли система Tesla, также известная как FSD, обнаруживать и соответствующим образом реагировать на туман и другие условия ограниченной видимости. Агентство заявило, что в таких сценариях было зарегистрировано четыре аварии, в которых была задействована FSD. В одной из этих аварий автомобиль Tesla насмерть сбил пешехода, а другое столкновение привело к получению травмы, согласно NHTSA. Представители Tesla не ответили на отправленный по электронной почте запрос о комментарии. Расследование знаменует собой потенциально серьезную неудачу в усилиях генерального директора Илона Маска позиционировать Tesla как лидера в области автономного вождения. На прошлой неделе компания организовала мероприятие в киностудии в районе Лос-Анджелеса с концептами автономных автомобилей. На протяжении многих лет она взимала с потребителей тысячи долларов за FSD, требующую постоянного надзора водителя. Акции Tesla упали на 1% перед началом регулярных торгов. Акции распродавались после презентации на прошлой неделе прототипов роботакси, в которых отсутствовали подробности о том, как компания будет реализовывать амбиции своего генерального директора в области беспилотного вождения. Расследование дефекта идет в дополнение к запросу об отзыве, который NHTSA открыла в апреле, чтобы выяснить, сделала ли Tesla достаточно, чтобы водители не злоупотребляли другим набором функций помощи, продаваемым как Autopilot. Агентство изучает, обеспечивает ли обновление программного обеспечения, развернутое Tesla в конце прошлого года, сохранение вовлеченности водителей при использовании системы. NHTSA заявило, что существует «критический разрыв в безопасности» между тем, что водители думают о возможностях автопилота, и его фактическими возможностями. Этот разрыв привел к предсказуемому неправильному использованию системы и предотвратимым авариям, согласно агентству. В апреле NHTSA заявила, что обнаружила 211 инцидентов, в которых Tesla попадали в аварии на автопилоте, несмотря на то, что у водителей было достаточно времени, чтобы избежать или смягчить столкновения. В 111 случаях водители съезжали с дороги после непреднамеренного отключения системы. Маск заявил, что способность Tesla разрабатывать технологии автономного транспорта в конечном итоге определит, будет ли компания стоить больших денег или «практически ничего». Автопроизводитель взимает 8000 долларов за FSD. Автор: Craig Trudell. Источник: www.bloomberg.com
Пост взят с международного финтех-медиа ресурса
ДЛЯ ЛЮДЕЙ