Die Fahrerassistenzsysteme von Tesla, darunter „Autopilot“ und „Full Self-Driving“ (FSD), haben in den letzten Jahren erhebliche Aufmerksamkeit erregt. Zahlreiche Erfahrungsberichte legen nahe, dass die Systeme einen soliden Job machen.
Gleichzeitig wird jedoch immer wieder von Unfällen berichtet, bei denen Tesla-Fahrzeuge mit aktivierten Assistenzsystemen beteiligt sind, was zu verschiedenen Ermittlungen seitens der Staatsanwaltschaft und der US-Verkehrssicherheitsbehörde NHTSA geführt hat.
Insbesondere in den USA gibt es wiederholt tödliche Unfälle, bei denen Teslas Fahrassistenzsoftware eine Rolle spielt. Tesla distanziert sich oft von der Verantwortung für diese Unfälle.
Jüngste Daten werfen jedoch ein Licht auf die Umstände einiger dieser Vorfälle. Ein Bericht des Wall Street Journal hebt hervor, dass die Technologie des Unternehmens bei mehreren Unfällen ein wesentlicher Faktor war und bestehende Bedenken hinsichtlich ihrer Sicherheit bestätigt.
🔥 HOT NEWS
- Ex-VW-Chef kassiert täglich 3100 Euro: So hoch ist seine Rente lesen
- Opel-Chef: Warum es in Deutschland keine günstigen E-Autos geben kann lesen
- Umfrage: Diese Antriebsart wird von vielen als Elektro-Alternative gesehen lesen
- Wer Elektro fährt, könnte aus diesem Grund große Verluste machen lesen
- VW startet neue E-Automarke mitten in der Krise lesen
75 von 222 untersuchten Unfällen lassen sich auf ein Autopilot-Fehlverhalten zurückführen
Die Wall Street Journal (WSJ) hat offizielle Unfalldaten von über 200 Unfällen analysiert und um Tesla-eigene Daten und Videos ergänzt. Bei dieser Untersuchung wurde festgestellt, dass von den 222 bewerteten Fällen 75 auf Fehlfunktionen des Autopiloten zurückzuführen sind.
Dies umfasst Unfälle, die durch unerwartete Spurwechsel oder starke Ausschwenkmanöver verursacht wurden sowie Unfälle, bei denen das Tesla-System Hindernisse nicht oder zu spät erkannte.
Von den 75 Unfällen ereigneten sich 44 aufgrund unerwarteter Spurwechsel oder heftigen Ausschwenkens. Zusätzliche 31 Unfälle wurden verursacht, weil Teslas Hindernisse auf der Fahrbahn nicht rechtzeitig erkannten.
Darunter befanden sich beispielsweise bereits verunfallte Fahrzeuge, die nicht ausgeweicht oder rechtzeitig gebremst wurden.
Ein markantes Beispiel ist der tödliche Unfall von Steven Hendrickson im Mai 2021. Auf dem Weg zur Arbeit erkannte sein Model 3 einen verunfallten Lkw auf der Autobahn nicht rechtzeitig.
Hendrickson prallte in die Unfallstelle und verstarb. Die Fahrzeugdaten zeigen, dass das Autopilotsystem den umgestürzten Lkw nicht richtig identifizieren konnte.
Die Analyse und die daraus resultierenden Erkenntnisse werfen kritische Fragen zur Zuverlässigkeit und Sicherheit der Tesla-Autopilotsysteme auf. Solche Fehler betonen die Notwendigkeit weiterer Verbesserungen und strengerer Sicherheitsvorkehrungen, um ähnliche Unfälle in der Zukunft zu verhindern.
Top 10: Diese Autos sind besonders günstig im Unterhalt
Teslas Autopilot ist auf bestimmte Verkehrsszenarien nicht trainiert
Laut Phil Koopman, außerordentlicher Professor für Elektro- und Informationstechnik an der Carnegie Mellon University, sind Teslas Systeme oft nicht auf Szenarien wie etwa umgekippte Lastwagen vorbereitet. Dies führt dazu, dass die Systeme solche Situationen nicht richtig erkennen und reagieren können.
Ein weiteres Problem besteht darin, dass Teslas Autopilot die Lichter von Einsatzfahrzeugen falsch interpretiert. Dies kann zu schweren Unfällen führen, bei denen Tesla-Fahrzeuge auf am Straßenrand geparkte Einsatzfahrzeuge auffahren.
Mehrere solcher Unfälle sind in der Vergangenheit dokumentiert worden.
Das Wall Street Journal berichtet, dass diese Faktoren besorgniserregend sind, obwohl möglicherweise weitere unabhängige Untersuchungen notwendig sind. Dies wäre wichtig, um die Behauptung von Tesla-Chef Elon Musk zu überprüfen, dass Teslas selbstfahrende Autos sicherer sind als menschliche Fahrer.
Tesla betont, dass ihre Fahrerassistenzsysteme nur teilautonom sind. Fahrer müssen jederzeit in der Lage sein, das Steuer zu übernehmen.
Trotz dieser Warnung fühlen sich einige Tesla-Fahrer in falscher Sicherheit, da die Systeme in vielen Verkehrsszenarien gut genug funktionieren.