Ein weiteres Jahr nähert sich seinem Ende, und allmählich kann man wohl festhalten: Die Ankündigung, dass seine Elektroautos bald autonom fahren würden, wird Tesla-CEO Elon Musk auch 2021 noch nicht umgesetzt haben. Denn seit inzwischen gut 12 Monaten läuft zwar ein Beta-Test mit einer als FSD für Full-Self Driving bezeichneten neuen Autopilot-Software in stetig verbesserten Versionen, aber die Berichte über Beinahe-Unfälle damit reißen nicht ab. Zuletzt schienen sie sogar häufiger zu werden, nachdem Tesla nach langem Zögern eine Erweiterung des Tests begann und die Vertraulichkeitserklärung strich, die Teilnehmern zuvor nahelegte, nur selektiv zu informieren. Gleichzeitig fiel das Verbot, FSD-Fahrten mit Journalisten zu machen. Und jetzt wurde der wohl erste Medien-Bericht über einen solchen Test veröffentlicht.
FSD-Fahrt mit Model 3 durch Brooklyn
Gleich nach der Streichung der Journalisten-Klausel befragte der Sender CNN Anfang des Monats mehrere Teilnehmer des Beta-Tests und hielt fest, diese seien sowohl beeindruckt als auch erschreckt von den Leistungen der Software. Bestenfalls könne man sie als „inkonsistent“ bezeichnen, heißt es in dem Bericht darüber: „In der einen Sekunde loben die Fahrer die Fähigkeiten des Autos, im nächsten Moment greifen sie ins Lenkrad, um einen Unfall oder Gesetzesverstoß zu vermeiden“. In weniger heiklen Momenten würden sich FSD-Teslas manchmal so ungeschickt anstellen, dass alle anderen Verkehrsteilnehmer mit den Augen rollen.
In dieser Woche bekam ein CNN-Reporter zudem Gelegenheit, die Beta-Software mit einem Model 3 selbst auszuprobieren. Ob das in einem geliehenen oder eigenen Tesla stattfand, wird in dem Video-Beitrag dazu ebenso wenig verraten wie die installierte Version (die neueste wird als FSD 10.4 bezeichnet) oder die Dauer der Fahrt durch Brooklyn, die auf gut vier Minuten zusammengeschnitten präsentiert wird. Auf jeden Fall passiert eine Menge darin, und es ist nicht geeignet, das Vertrauen in ein baldiges Verlassen der Beta-Phase zu stärken.
Nachdem der Reporter feierlich den FSD-Modus aktiviert hat, erklärt er, das Auto würde jetzt „offiziell, technisch gesehen, irgendwie“ selbst fahren (rechtlich ist aber auch diese Autopilot-Version nur ein modernes Assistenz-System). Gleich darauf wird dreimal gezeigt, wie der Fahrer unter erschrockenen Ausrufen ins Lenkrad greift. Eine der Situationen erklärt er dann mit zusätzlichen Video-Ausschnitten näher: Ein Fahrrad mit Anhänger wich wegen eines im Weg stehenden Pickups auf seine Spur aus, und der Tesla wollte höflich Platz machen – doch auf der Gegenfahrbahn fuhr ein UPS-Lieferwagen, den er ohne Intervention gerammt hätte.
Mehrere Beinahe-Unfälle im Tesla
Das Ziel des Tests sei nicht, das Auto zum Scheitern zu bringen, erklärt der CNN-Mann in einer ruhigeren Passage. Man wolle einfach nur herausfinden, wie gut das Tesla-System in der Stadt funktioniert. „Bislang macht es sich, hm, okay“, erklärt er etwas zögernd. Immerhin auf übersichtlichen Straßen mit wenigen Fußgängern komme es gut zurecht und zeige die Umgebung stets korrekt an. Das Problem liege wohl weniger im Sehen als darin, in schwierigen Situationen die richtigen Entscheidungen zu treffen. Später folgen weitere Interventionen, weil das Model 3 auf eine mit einem Gitter versperrte Spur zuhält oder nach links abbiegen will, obwohl auf der zu kreuzenden Spur ein Lastwagen mit flachem Auflieger im Weg ist.
Er wolle nicht sagen, dass es niemals ein wirklich autonom fahrendes Auto geben wird, sagt der Reporter in einem Fazit am Ende seiner aufregenden Fahrt mit vielen FSD-Fehlern. Aber derzeit sei man wohl noch Jahre davon entfernt. Tesla wollte sich auf Anfrage von CNN zu diesem Thema (wie üblich) nicht äußern. Aber CEO Musk macht offenbar unbeirrt weiter: In zehn Tagen werde hoffentlich FSD V10.5 bereit sein, schrieb er Ende vergangener Woche. Diese Version solle dann an Tesla-Fahrer in den USA verteilt werden, die mindestens 98 Punkte in dem dafür zuvor eingeführten Safety Score erreicht haben.