Weitere Tesla-Probleme: US-Sicherheitsbehörde untersucht Autopilot-Probleme bei 765.000 Fahrzeugen

Die Untersuchung umfasst 765.000 Fahrzeuge – fast alles, was Tesla seit Beginn des Modelljahres 2014 in den USA verkauft hat.

Tesla 2018 Model 3 Limousinen auf dem Display vor einem Tesla-Showroom in Littleton, Colo.

Tesla 2018 Model 3 Limousinen auf dem Display vor einem Tesla-Showroom in Littleton, Colo.

AP

Die US-Regierung hat nach einer Reihe von Kollisionen mit geparkten Rettungsfahrzeugen eine formelle Untersuchung des teilautomatisierten Fahrsystems Autopilot von Tesla eingeleitet.



Die Untersuchung umfasst 765.000 Fahrzeuge – fast alles, was Tesla seit Beginn des Modelljahres 2014 in den USA verkauft hat.

Bei den von der National Highway Traffic Safety Administration im Rahmen der Untersuchung festgestellten Unfällen wurden 17 Menschen verletzt und einer getötet.

Laut NHTSA hat es seit 2018 11 Unfälle identifiziert, bei denen Teslas mit Autopilot oder verkehrsbewusster Geschwindigkeitsregelung Fahrzeuge an Orten getroffen haben, an denen Ersthelfer blinkende Lichter, Leuchtraketen, eine beleuchtete Pfeiltafel oder Kegel verwendet haben, die vor Gefahren warnen. Das teilte die Agentur am Montag mit.

Verwandt

Ärger mit Tesla: Paar wurde ein beschädigtes Auto verkauft und sagte dann, dass sie nicht klagen können

Die Untersuchung ist ein weiteres Zeichen dafür, dass die NHTSA unter Präsident Joe Biden eine Verschärfte Haltung zur automatisierten Fahrzeugsicherheit als unter früheren Regierungen. Zuvor zögerte die Behörde, die neue Technologie zu regulieren, aus Angst, die Einführung der potenziell lebensrettenden Systeme zu behindern.

Die Untersuchung umfasst die gesamte aktuelle Modellpalette von Tesla, die Modelle Y, X, S und 3 der Modelljahre 2014 bis 2021.

Verwandt

Hersteller von automatisierten Fahrzeugen müssen Unfälle melden, als Zeichen einer härteren Haltung der Regierung

Das National Transportation Safety Board, das auch einige der Tesla-Abstürze aus dem Jahr 2016 untersucht hat, hat empfohlen, dass NHTSA und Tesla die Verwendung des Autopiloten auf Bereiche beschränken, in denen er sicher betrieben werden kann. Der NTSB empfahl auch, dass die NHTSA von Tesla ein besseres System verlangt, um sicherzustellen, dass die Fahrer aufpassen. Die NHTSA hat keine der Empfehlungen umgesetzt. Der NTSB hat keine Durchsetzungsbefugnisse und kann nur Empfehlungen an andere Bundesbehörden aussprechen.

Letztes Jahr machte die NTSB Tesla, Fahrer und die laxe Regulierung der NHTSA für zwei Kollisionen verantwortlich, bei denen Teslas unter sich kreuzenden Sattelschleppern stürzten. Der NTSB unternahm den ungewöhnlichen Schritt, die NHTSA zu beschuldigen, zum Absturz beigetragen zu haben, weil sie es versäumt hatte, sicherzustellen, dass die Autohersteller Sicherheitsvorkehrungen treffen, um die Verwendung elektronischer Fahrsysteme einzuschränken.

Die Behörde traf die Feststellungen nach der Untersuchung eines Unfalls im Jahr 2019 in Delray Beach, Florida, bei dem der 50-jährige Fahrer eines Tesla Model 3 ums Leben kam. Das Auto fuhr auf Autopilot, als weder der Fahrer noch das Autopilot-System bremsten oder versuchten, einer Querung der Sattelzugmaschine auszuweichen.

Autopilot wurde häufig von Tesla-Fahrern missbraucht, die betrunken am Steuer oder sogar auf dem Rücksitz erwischt wurden, während ein Auto über eine kalifornische Autobahn rollte.

Tesla, das sein Medienbüro aufgelöst hat, reagierte nicht sofort auf eine Nachricht mit der Bitte um einen Kommentar.

Verwandt

Verbraucherberichte bringen Tesla dazu, ohne jemanden am Steuer zu fahren

Die NHTSA hat seit Juni 2016 Ermittlungsteams zu 31 Unfällen mit teilautomatisierten Fahrerassistenzsystemen entsandt. Solche Systeme können ein Fahrzeug in der Spurmitte und einen sicheren Abstand zu vorausfahrenden Fahrzeugen halten. Von diesen Unfällen betrafen 25 Tesla Autopilot, bei denen nach Angaben der Agentur 10 Todesfälle gemeldet wurden.

Tesla und andere Hersteller warnen davor, dass Fahrer, die die Systeme nutzen, jederzeit bereit sein müssen, einzugreifen. Teslas mit Autopilot haben nicht nur Sattelzüge überquert, sondern sind auch mit angehaltenen Rettungsfahrzeugen und einer Fahrbahnsperre zusammengestoßen.

Die Untersuchung der NHTSA sei längst überfällig, sagte Raj Rajkumar, Professor für Elektro- und Computertechnik an der Carnegie Mellon University, der automatisierte Fahrzeuge studiert.

Teslas Versäumnis, die Fahrer effektiv zu überwachen, um sicherzustellen, dass sie aufmerksam sind, sollte bei der Untersuchung oberste Priorität haben, sagte Rajkumar. Teslas erkennen Druck auf das Lenkrad, um sicherzustellen, dass die Fahrer engagiert sind, aber Fahrer täuschen das System oft.

Es ist sehr einfach, die Sache mit dem Lenkdruck zu umgehen, sagte Rajkumar. Das geht schon seit 2014. Darüber diskutieren wir schon lange.

Die von der NHTSA zitierten Unfälle mit Rettungsfahrzeugen begannen am 22. Januar 2018 in Culver City, Kalifornien, in der Nähe von Los Angeles, als ein Tesla mit Autopilot ein geparktes Feuerwehrauto mit blinkenden Lichtern aufprallte, das sich teilweise in den Fahrspuren befand. Die Besatzungen hatten zu diesem Zeitpunkt einen weiteren Absturz zu bewältigen.

Verwandt

Angesichts von Sicherheitsfragen schlägt die Automobilherstellergruppe freiwillige Richtlinien zu automatisierten Fahrzeugen vor

Seitdem habe es in Laguna Beach, Kalifornien, Unfälle gegeben, teilte die Agentur mit. Norwalk, Connecticut; Cloverdale, Indiana; Westbridgewater, Massachusetts; Cochise County, Arizona; Charlotte, North Carolina; Montgomery County, Texas; Lansing, Michigan; und Miami, Florida.

Die Untersuchung wird die Technologien und Methoden bewerten, die verwendet werden, um die Einbindung des Fahrers in die dynamische Fahraufgabe während des Autopilotbetriebs zu überwachen, zu unterstützen und durchzusetzen, sagte die NHTSA in ihren Untersuchungsdokumenten.

Darüber hinaus deckt die Sonde die Objekt- und Ereigniserkennung durch das System sowie den Ort ab, an dem sie betrieben werden darf. Die NHTSA sagt, sie werde die zu den Abstürzen beitragenden Umstände sowie ähnliche Abstürze untersuchen.

Eine Untersuchung könnte zu einem Rückruf oder anderen Durchsetzungsmaßnahmen der NHTSA führen.

Die NHTSA erinnert die Öffentlichkeit daran, dass heute keine handelsüblichen Kraftfahrzeuge in der Lage sind, selbst zu fahren, sagte die Agentur. Jedes verfügbare Fahrzeug erfordert, dass ein menschlicher Fahrer jederzeit die Kontrolle hat, und alle staatlichen Gesetze machen menschliche Fahrer für den Betrieb ihrer Fahrzeuge verantwortlich.

Die Agentur sagte, sie verfüge über robuste Durchsetzungsinstrumente, um die Öffentlichkeit zu schützen und potenzielle Sicherheitsprobleme zu untersuchen, und werde handeln, wenn sie Hinweise auf Nichteinhaltung oder ein unangemessenes Sicherheitsrisiko feststellt.

Im Juni forderte die NHTSA alle Autohersteller auf, alle Unfälle mit vollautonomen Fahrzeugen oder teilautomatisierten Fahrerassistenzsystemen zu melden.

Tesla mit Sitz in Palo Alto, Kalifornien, verwendet ein kamerabasiertes System, viel Rechenleistung und manchmal Radar, um Hindernisse zu erkennen, festzustellen, was sie sind und dann zu entscheiden, was die Fahrzeuge tun sollen.

Rajkumar von Carnegie Mellon sagte jedoch, dass das Radar des Unternehmens von falsch positiven Signalen geplagt wurde und Autos anhalten würde, nachdem festgestellt wurde, dass Überführungen Hindernisse waren.

Jetzt hat Tesla Radar zugunsten von Kameras und Tausenden von Bildern eliminiert, die das neuronale Computernetzwerk verwendet, um festzustellen, ob sich Objekte im Weg befinden. Das System, sagte er, leistet bei den meisten Objekten, die in der realen Welt zu sehen wären, einen sehr guten Job. Aber es hatte Probleme mit geparkten Rettungsfahrzeugen und senkrechten Lastwagen auf seinem Weg.

Es kann nur Muster finden, auf die es trainiert wurde, 'Zitat unzitiert' zu sein, sagte Rajkumar. Offensichtlich enthalten die Eingaben, auf denen das neuronale Netz trainiert wurde, einfach nicht genügend Bilder. Sie sind nur so gut wie die Inputs und das Training. Fast per Definition wird das Training nie gut genug sein.

Tesla erlaubt ausgewählten Besitzern auch, ein so genanntes vollständig selbstfahrendes System zu testen. Rajkumar sagte, das sollte ebenfalls untersucht werden.