Bild: AI Addict
Bis Mitte September hatte die im Oktober 2020 bei ersten Mitarbeitern und Kunden in den USA eingeführte Beta-Software namens FSD für das Autopilot-System laut CEO Elon Musk eine weiße Weste: Fast ein Jahr nach dem Start habe es bei dem Test auf öffentlichen Straßen noch keinen einzigen Unfall gegeben, erklärte er. Seit die Zahl der Testenden ab diesem Oktober erweitert wird, ist es damit aber vorbei: Am Freitag wurde der dritte Unfall bekannt, der sich während einer FSD-Fahrt im Tesla ereignete.
Tesla-Warnung nicht nur theoretisch
Der wohl erste wurde schon Anfang November vom Fahrer eines Tesla Model Y bei der Verkehrsbehörde NHTSA gemeldet. Im FSD-Modus sei es nach links abgebogen, dabei in die falsche Spur geraten und dadurch von einem anderen Auto gerammt worden, heißt es in einer Beschwerde. Etwa zwei Wochen später meldete ein Tesla-Besitzer auf Twitter einen weiteren Fall. Sein Model 3 wurde von hinten von einem anderen Fahrzeug gerammt.
„FSD hat nichts falsch gemacht“, kommentierte der Betroffene, und ein von ihm veröffentlichtes Video dazu enthält keine Anzeichen für das Gegenteil. Bei dem zuvor der NHTSA gemeldeten Verlassen der richtigen Spur könnte es anders gewesen sein. Unabhängig davon war aber ohnehin die Person am Steuer in der Verantwortung, denn auch mit der FSD-Betaversion ist der Autopilot nur ein Assistent. Tesla weist Nutzer zudem in sehr deutlichen Worten darauf hin, dass er zum absolut schlechtesten Zeitpunkt genau das Falsche machen kann. Und diese Warnung ist nicht nur theoretisch, wie nach Angaben des Betroffenen ein weiterer Fall zeigt, der an diesem Freitag bekannt wurde. Zunächst gab es ein YouTube-Video dazu, das später gelöscht wurde – aber eine Kopie davon auf Twitter überlebte zunächst.
https://twitter.com/mostlyharmlessz/status/1469421762555351042
Laut seiner Beschreibung des Vorfalls Ende November war der Tesla-Besitzer abends im FSD-Modus auf einer Landstraße unterwegs. Eine lange Rechtskurve nahm sein Model Y demnach zunächst korrekt, stellte aber kurz vor der Hälfte abrupt die Räder gerade und fuhr über die doppelte Mittellinie direkt auf ein entgegenkommendes Auto zu. Der Fahrer hatte wie vorgeschrieben die Hände am Steuer und griff mit energischem Gegenlenken ein. Doch dadurch verlor er die Kontrolle über das Fahrzeug und rutschte über den rechten Fahrbahnrand in ein Waldstück. Den Bäumen konnte er weitestgehend ausweichen, aber Boden und Fahrwerk des Model Y wurden stark beschädigt, berichtete der Fahrer in dem Forum Tesla Motors Club (TMC).
FSD-Betatester scheinen aufzupassen
Auch an diesem Unfall dürfte der FSD-Autopilot rechtlich gesehen unschuldig sein, aber annähernde Perfektion auf der technischen Seite lässt er nicht erkennen – deren Nachweis ist laut Tesla Voraussetzung für die offizielle Zulassung als mehr als ein bloßes Assistenz-System. Nach Angaben des Fahrers ereignete sich der Crash mit der Version 10.4 der FSD-Software, doch auch mit 10.6 wurde in dieser Woche noch ein Video mit schweren Patzern veröffentlicht (s. Foto oben). Und Kommentare anderer Beta-Tester zu dem im TMC beschriebenen Unfall erwecken den Eindruck, dass dabei auch deshalb nicht häufiger etwas passiert, weil sie beim Fahren mit ihrem modernen Tesla-Assistenten sehr gut auf ihn aufpassen.