• Amerykańska agencja NHTSA poszerza śledztwo dotyczące bezpieczeństwa korzystania z funkcji Autopilot w samochodach Tesli
  • Potwierdzono już setki przypadków, gdy podczas używania funkcji Autopilot lub Full Self-Driving doszło do wypadków, w tym prowadzących do ofiar śmiertelnych
  • Wszystko wskazuje na to, że systemy Tesli nie zmuszają kierowców do skupiania uwagi na drodze podczas jazdy autonomicznej
  • Więcej takich tekstów znajdziesz na stronie głównej Onetu

Główna agencja amerykańskiego rządu ds. bezpieczeństwa na drogach, National Highway Traffic Safety Administration (NHTSA), w istotny sposób rozszerzyła dochodzenie w sprawie systemu Autopilot wykorzystywanego w samochodach Tesli. Prowadzone przez agencję badanie ma na celu określenie, czy ten zaawansowany system wspomagania kierowcy stanowi zagrożenie dla bezpieczeństwa. Jak informuje "New York Times", w czwartek (9 czerwca br.) NHTSA przekazała swoją wstępną ocenę Autopilota do analizy inżynieryjnej, który jest intensywniejszym poziomem kontroli wymaganym przed możliwością nakazania wycofania funkcji.

Dalsza część tekstu pod materiałem wideo:

Prowadzona analiza ma pozwolić ocenić, czy Autopilot Tesli nie uniemożliwia kierowcom odwracania uwagi od sytuacji na drodze i zajmowania się innymi ryzykownymi zajęciami podczas korzystania z systemu. Problem jest dość poważny, bo jak stwierdziła sama NHTSA, agencja wie o 35 wypadkach, do których doszło podczas korzystania z Autopilota, przy czym w dziewięciu z nich zginęło 14 osób. Na razie nie zdołano ustalić, czy system Tesli ma wady, które mogą prowadzić do wypadków samochodów w trakcie korzystania z tej funkcji.

Szersze śledztwo obejmie 830 tys. samochodów sprzedanych w Stanach Zjednoczonych. Są to wszystkie modele Tesli — Model S, Model 3, Model X i Model Y — z lat modelowych od 2014 do 2021. Agencja przyjrzy się funkcji Autopilot i różnym komponentom systemów, które obsługują kierowanie, hamowanie i inne zadania związane z prowadzeniem pojazdu, a także bardziej zaawansowanemu systemowi określanemu przez Teslę mianem Full Self-Driving.

Wstępna ocena skupiała się na 11 przypadkach, w których samochody Tesli przy włączonym systemie Autopilot uderzyły w zaparkowane pojazdy ratunkowe (policja, straż pożarna, karetka pogotowia ratunkowego) z włączonymi migającymi światłami. W tych wypadkach zginęła jedna osoba, a 17 odniosło obrażenia. Ale agencja wie już o 191 zdarzenia, nie tylko z udziałem pojazdów służb ratunkowych, które uzasadniły prowadzenie dochodzenia. Do wypadków doszło, gdy w autach był aktywny Autopilot, system Full Self-Driving lub powiązane funkcje. Przypadki, w których trudno było jednoznacznie określić, czy ww. systemy były głównymi przyczynami wypadku, wykluczono z dalszej analizy.

Jak twierdzi sam producent, co prawda oprogramowanie Full Self-Driving pozwala prowadzić samochód po ulicach miasta, ale nie zmienia auta we w pełni autonomiczny pojazd i wymaga od kierowcy uwagi. Ponadto system dostępny jest jedynie dla ograniczonej grupy użytkowników Tesli. Sama Tesla oraz Elon Musk znaleźli się w ogniu krytyki po tym, jak promowali funkcje Autopilot i Full Self-Driving w sposób sugerujący, że można już prowadzić samochody bez udziału kierowcy.