Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2024-04-29 09:58:01

Отчет: Tesla Autopilot и Full Self-Driving причастны к сотням аварий и десяткам смертей

Невнимательность водителей в сочетании с недостатками технологий Tesla Autopilot и Full Self-Driving (FSD) привели к сотням травм и десяткам смертей. Об этом говорится в отчете NHTSA. Согласно выводам, пользователи этих систем «не были достаточно вовлечены в управление автомобилем». В то же время сами технологии Tesla «не обеспечивали должного уровня внимания водителей». В общей сложности с января 2018 по август 2023 года регулятор расследовал 956 ДТП. В этих авариях, некоторые из которых включали столкновение других машин с Tesla, погибли 29 человек.  Также агентство зафиксировало 211 инцидентов, в которых «лобовая часть автомобиля Tesla ударилась о транспортное средство или препятствие на своем пути». В наиболее серьезных случаях 14 человек погибли, а 49 получили ранения. NHTSA инициировало расследование после того, когда водители Tesla врезались в неподвижные аварийные автомобили, припаркованные на обочине. Большинство этих инцидентов произошло в вечернее и ночное время, при этом программное обеспечение игнорировало меры по контролю за обстановкой на дороге вроде предупреждающих огней, сигнальных ракет, конусов и светового табло со стрелками. Водители на автопилоте не успевают вовремя реагировать В своем отчете агентство пришло к выводу, что Autopilot и, в некоторых случаях FSD, не были разработаны так, чтобы удерживать внимание водителя за рулем. Tesla в свою очередь предупреждает клиентов о необходимости быть начеку при использовании этих технологий, включая необходимость держать руки на руле и смотреть на дорогу.  Однако, по данным NHTSA, во многих случаях водители становились слишком самоуверенными и теряли концентрацию внимания. А когда приходило время реагировать на опасную ситуацию, зачастую было уже слишком поздно. В 59 изученных авариях агентство обнаружило, что у водителей Tesla было достаточно времени — пять или более секунд до столкновения с другим объектом — чтобы среагировать. В 19 угроза была очевидна за 10 и более секунд.  Изучив журналы данных и предоставленную Tesla информацию NHTSA обнаружила, что в большинстве подобных ситуаций водители не успевали ни затормозить, ни повернуть руль для избежания столкновения. «Аварии, в которых водитель не предпринял никаких или запоздалых попыток уклонения, обнаружены во всех версиях оборудования Tesla и обстоятельствах происшествия», — заявили в NHTSA. Tesla дает слишком большие обещания NHTSA также сравнила функции автоматизации уровня 2 (L2) Tesla с продуктами других автопроизводителей. В отличие от конкурентов, Autopilot отключается, а не позволяет водителю корректировать рулевое управление. По словам NHTSA, это «отбивает охоту» у водителей оставаться начеку за рулем. «Сравнение конструкторских решений Tesla с аналогичными решениями L2 позволило выявить, что компания является изгоем отрасли в своем подходе к технологии, поскольку слабая система вовлечения водителя не сочетается с разрешительными возможностями Autopilot», — говорится в сообщении агентства. https://forklog.com/exclusive/ai/pristegnite-remni-cheloveki-pochemu-nam-i-vam-nuzhny-robomobili Даже название бренда Autopilot вводит в заблуждение, заявили в NHTSA. Оно якобы наводит на мысль, что водитель не контролирует ситуацию.  В то время как другие компании используют некоторые варианты слов «помощь», «чувство» или «команда», продукты Tesla убеждают водителей в том, что они обладают большими возможностями, чем есть на самом деле.  Генеральный прокурор Калифорнии и Департамент автотранспорта штата ведут расследование в отношении компании по поводу вводящего в заблуждение брендинга и маркетинга. NHTSA признает, что его расследование может быть неполным из-за «пробелов» в телеметрических данных Tesla. На самом деле аварий с участием Autopilot и FSD может быть гораздо больше, чем удалось обнаружить агентству. Обновление Autopilot не решило проблемы безопасности В конце прошлого года Tesla выпустила добровольный отзыв ПО в ответ на расследование NHTSA, обновив программу для добавления дополнительных предупреждений в Autopilot. Однако NHTSA заявило о начале нового расследования, так как ряд экспертов по безопасности указали на «неадекватность» предпринятых мер, допускающих некорректное использование систем помощи водителю. Результаты расследования противоречат утверждениям главы Tesla Илона Маска о том, что его компания занимается разработкой ИИ и находится на пороге выпуска полностью беспилотного электрокара для личного пользования. В конце этого года он планирует представить роботакси, которое должно открыть новую эру для автопроизводителя.  На прошлой неделе в ходе отчета о прибылях за первый квартал Маск вновь заявил, что транспортные средства Tesla безопаснее машин под управлением человека. «Если статистически значимый объем данных убедительно показывает, что беспилотный автомобиль, скажем, в два раза реже попадает в аварии, чем автомобиль с человеческим управлением, я думаю, это трудно игнорировать», — сказал Маск.  Он считает, что прекращение эксплуатации самоходных автомобилей равноценно «убийству людей». Илон Маск нацелен на китайский рынок Одновременно с выходом отчета NHTSA Маск отправился с неанонсированным визитом в Китай. По данным источников, одним из обсуждаемых вопросов стало обсуждение внедрения Autopilot и FSD в стране. Ранее Маск написал в X, что Tesla может сделать Full Self-Driving доступным для клиентов в Китае «очень скоро». It may be possible very soon— Elon Musk (@elonmusk) April 20, 2024 Китайская государственная телекомпания CCTV в своем репортаже о встрече Маска с премьер-министром КНР Ли Цяном не сообщила, обсуждали ли они FSD или данные. Поездка Маска состоялась чуть больше недели спустя после того, как он отменил запланированный визит в Индию для встречи с премьер-министром Нарендрой Моди. Напомним, в мае 2023 года министр транспорта США Пит Буттиджич раскритиковал автопилот Tesla.

Leggi la dichiarazione di non responsabilità : Tutti i contenuti forniti nel nostro sito Web, i siti con collegamento ipertestuale, le applicazioni associate, i forum, i blog, gli account dei social media e altre piattaforme ("Sito") sono solo per le vostre informazioni generali, procurati da fonti di terze parti. Non rilasciamo alcuna garanzia di alcun tipo in relazione al nostro contenuto, incluso ma non limitato a accuratezza e aggiornamento. Nessuna parte del contenuto che forniamo costituisce consulenza finanziaria, consulenza legale o qualsiasi altra forma di consulenza intesa per la vostra specifica dipendenza per qualsiasi scopo. Qualsiasi uso o affidamento sui nostri contenuti è esclusivamente a proprio rischio e discrezione. Devi condurre la tua ricerca, rivedere, analizzare e verificare i nostri contenuti prima di fare affidamento su di essi. Il trading è un'attività altamente rischiosa che può portare a perdite importanti, pertanto si prega di consultare il proprio consulente finanziario prima di prendere qualsiasi decisione. Nessun contenuto sul nostro sito è pensato per essere una sollecitazione o un'offerta