Logo
WiadomościAktualnościCzarne chmury nad autonomicznymi samochodami Tesli. System Autopilot może zwiększać ryzyko wypadku

Czarne chmury nad autonomicznymi samochodami Tesli. System Autopilot może zwiększać ryzyko wypadku

Główna agencja amerykańskiego rządu ds. bezpieczeństwa na drogach, National Highway Traffic Safety Administration (NHTSA), w istotny sposób rozszerzyła dochodzenie w sprawie systemu Autopilot wykorzystywanego w samochodach Tesli. Prowadzone przez agencję badanie ma na celu określenie, czy ten zaawansowany system wspomagania kierowcy stanowi zagrożenie dla bezpieczeństwa. Jak informuje "New York Times", w czwartek (9 czerwca br.) NHTSA przekazała swoją wstępną ocenę Autopilota do analizy inżynieryjnej, który jest intensywniejszym poziomem kontroli wymaganym przed możliwością nakazania wycofania funkcji.

Dalsza część tekstu pod materiałem wideo:

Dalszy ciąg artykułu pod materiałem wideo

Prowadzona analiza ma pozwolić ocenić, czy Autopilot Tesli nie uniemożliwia kierowcom odwracania uwagi od sytuacji na drodze i zajmowania się innymi ryzykownymi zajęciami podczas korzystania z systemu. Problem jest dość poważny, bo jak stwierdziła sama NHTSA, agencja wie o 35 wypadkach, do których doszło podczas korzystania z Autopilota, przy czym w dziewięciu z nich zginęło 14 osób. Na razie nie zdołano ustalić, czy system Tesli ma wady, które mogą prowadzić do wypadków samochodów w trakcie korzystania z tej funkcji.

Szersze śledztwo obejmie 830 tys. samochodów sprzedanych w Stanach Zjednoczonych. Są to wszystkie modele Tesli — Model S, Model 3, Model X i Model Y — z lat modelowych od 2014 do 2021. Agencja przyjrzy się funkcji Autopilot i różnym komponentom systemów, które obsługują kierowanie, hamowanie i inne zadania związane z prowadzeniem pojazdu, a także bardziej zaawansowanemu systemowi określanemu przez Teslę mianem Full Self-Driving.

Wstępna ocena skupiała się na 11 przypadkach, w których samochody Tesli przy włączonym systemie Autopilot uderzyły w zaparkowane pojazdy ratunkowe (policja, straż pożarna, karetka pogotowia ratunkowego) z włączonymi migającymi światłami. W tych wypadkach zginęła jedna osoba, a 17 odniosło obrażenia. Ale agencja wie już o 191 zdarzenia, nie tylko z udziałem pojazdów służb ratunkowych, które uzasadniły prowadzenie dochodzenia. Do wypadków doszło, gdy w autach był aktywny Autopilot, system Full Self-Driving lub powiązane funkcje. Przypadki, w których trudno było jednoznacznie określić, czy ww. systemy były głównymi przyczynami wypadku, wykluczono z dalszej analizy.

Jak twierdzi sam producent, co prawda oprogramowanie Full Self-Driving pozwala prowadzić samochód po ulicach miasta, ale nie zmienia auta we w pełni autonomiczny pojazd i wymaga od kierowcy uwagi. Ponadto system dostępny jest jedynie dla ograniczonej grupy użytkowników Tesli. Sama Tesla oraz Elon Musk znaleźli się w ogniu krytyki po tym, jak promowali funkcje Autopilot i Full Self-Driving w sposób sugerujący, że można już prowadzić samochody bez udziału kierowcy.

Przeczytaj skrót artykułu
Zapytaj Onet Czat z AI
Poznaj funkcje AI
AI assistant icon for Onet Chat
Skrót artykułu

To jest materiał Premium

Dołącz do Premium i odblokuj wszystkie funkcje dla materiałów Premium:

czytaj słuchaj skracaj

Dołącz do premium