Autopilot Tesli niebezpieczny? Raport ujawnia kolizje i wypadki
Urząd ds. Bezpieczeństwa Ruchu Drogowego w Stanach Zjednoczonych opublikowała raport dotyczący badania wypadków z udziałem samochodów marki Tesla. Z ustaleń wynika, że funkcja autopilota była wadliwa i miała swój udział w przyczynieniu się do wypadków ze skutkiem śmiertelnym.
01.05.2024 | aktual.: 01.05.2024 17:28
Samochody elektryczne marki Tesla zyskały na popularności dzięki swoim innowacjom na rynku motoryzacyjnym. Funkcje takie jak autopilot przyczyniły się do rewolucji w postrzeganiu przyszłości transportu.
Rzeczywistość może okazać się inna. W 2021 roku, amerykański urząd ds. bezpieczeństwa ruchu drogowego, czyli NHTSA, rozpoczęła śledztwo dotyczące funkcji autopilota w pojazdach Tesla. Wyniki tego badania są niepokojące. To kolejne problemy techniczne marki, po niedawnych informacjach o wadliwych pedałach przyspieszenia w modelu Tesla Cybertruck.
Wyniki raportu komisji Bezpieczeństwa Ruchu Drogowego
NHTSA przeanalizowała wypadki z udziałem pojazdów Tesla, które miały miejsce od stycznia 2018 roku do sierpnia 2023 roku. Zgromadzono dane o 956 incydentach, w których życie straciło 29 osób. Informacje te omawia portal The Verge.
Dodatkowo odnotowano 211 wypadków, w których pojazd Tesla uderzył czołowo w inny samochód lub przeszkodę - takie zdarzenia, będące zazwyczaj bardzo poważne, skutkowały śmiercią 14 osób oraz obrażeniami 49 innych. Większość z tych incydentów wydarzyła się po zmroku, a oprogramowanie pojazdów ignorowało znaki ostrzegawcze, takie jak światła, flary, stożki oraz oświetlone tablice.
NHTSA przyznała, że prowadzone przez nią dochodzenie może mieć pewne braki z powodu "luk" w danych telemetrycznych. Możliwe jest, że liczba wypadków z udziałem funkcji autopilota i systemu FSD jest znacznie większa, niż wynika to z dostępnych danych.
Autopilot Tesli okazał się wadliwy
Twórcy raportu zwracają uwagę, że system autopilota jest wadliwy i "prowadził do przewidywalnych nadużyć oraz awarii, których można było uniknąć". Najwięcej zarzutów skupia się na niedoskonałym systemie zaangażowania kierowcy, który jest ograniczony możliwościami operacyjnymi autopilota, co tworzy poważne luki w bezpieczeństwie.
W 59 analizowanych przypadkach kierowcy Tesli dysponowali wystarczającym czasem (ponad 5 sekund) na reakcję. Po przestudiowaniu raportów wypadków oraz danych dostarczonych przez Teslę, NHTSA stwierdziła, że w większości z tych zdarzeń kierowcy nie podjęli działań takich jak hamowanie czy skręcanie, aby uniknąć kolizji.
W przeciwieństwie do innych systemów, autopilot Tesli zamiast umożliwić kierowcom manewr, po prostu się wyłączał. NHTSA argumentuje, że "to zniechęca" kierowców do aktywnego i uważnego prowadzenia pojazdu.
Nazwa autopilot jest myląca
Tesla informuje swoich użytkowników, że korzystając z autopilota oraz systemu FSD (Full Self Driving), powinni zachować szczególną ostrożność, co obejmuje trzymanie rąk na kierownicy i ciągłą obserwacje drogi.
Niemniej jednak, NHTSA twierdzi, że sama nazwa "autopilot" może wprowadzać w błąd, sugerując, że kierowcy nie mają pełnej kontroli nad pojazdem. Podczas gdy inne firmy używają terminów takich jak "wspomaganie". Tesla może przez to nieświadomie wabić kierowców, sugerując funkcje, które faktycznie nie istnieją.
Prokurator generalny Kalifornii oraz stanowy Departament Pojazdów Silnikowych prowadzą dochodzenie przeciwko Tesli w związku z potencjalnie wprowadzającym w błąd marketingiem oraz marką.