Zu Thanksgiving in diesem November hatte Tesla-CEO Elon Musk eine gute Nachricht für Kunden mit der Autopilot-Option FSD: Die gleichnamige Beta-Software in ihrer Version 10.69.3.1 werde jetzt breit veröffentlicht, schrieb er in der Nacht auf den US-Feiertag, nachdem er einen Monat zuvor die Öffnung des zuvor begrenzten Tests für alle Tesla-Kunden mit bezahlter FSD-Option angekündigt hatte. Das klang wie ein wichtiger Fortschritt. Doch noch am selben Tag gab es bei San Francisco einen Serien-Unfall mit einem Model S an der Spitze, der nach Angaben des Fahrers durch einen Fehler der Software zustande kam.
Model S soll plötzlich gebremst haben
Der Verkehr zu Thanksgiving ist in den USA ohnehin vielerorts stockend, in diesem Jahr aber wurde er zusätzlich durch den Tesla-Unfall aufgehalten, berichtete am Donnerstag der TV-Sender ABC7News im Internet. Demnach ereignete er sich auf der Autobahn I-80 auf Höhe der Bay Bridge von San Francisco, auf der zwei Spuren gesperrt werden mussten. Insgesamt sollen acht Autos ineinander gefahren sein, nachdem das Tesla Model S ganz nach links gewechselt sei und anschließend abrupt gebremst habe.
Die überraschende Bremsung habe zu einer Kettenreaktion mit acht Fahrzeugen geführt, die zuvor mit Highway-Tempo unterwegs waren, berichtete der Sender CNN Business, dem nach eigenen Angaben das Polizei-Protokoll vorlag. Neun Personen seien wegen kleiner Verletzungen behandelt worden, ein Minderjähriger darunter ins Krankenhaus gebracht worden. Insgesamt scheint das Geschehen also nicht verheerend gewesen zu sein. Aber es wird pikant durch den Umstand, dass der Fahrer des Tesla laut CNN Business angab, dass nicht er auf der Brücke plötzlich gebremst habe, sondern das FSD-System von Tesla.
So soll er es jedenfalls gegenüber der Polizei angegeben haben, die dazu auf CNN-Anfrage antwortete, ob FSD zu der Zeit des Unfalls aktiv gewesen sei, müsse Tesla klären. Die Verantwortung läge dann immer noch beim Fahrer, denn das Autopilot-System einschließlich der FSD-Option mit weitergehenden Funktionen sind nur als Assistenz zugelassen, worauf Tesla bei der Aktivierung auch hinweist. Dennoch widerspricht es natürlich dem Sinn solcher Systeme, wenn sie heikle Situationen heraufbeschwören, die der Mensch am Steuer dann meistern muss – wenn er es denn noch schafft.
Tesla-Unfall zu Thanksgiving wird untersucht
Falls der Brücken-Unfall zu Thanksgiving tatsächlich vom Autopilot-System provoziert wurde, wäre das wohl kein spezifisches FSD-Problem. Auf Autobahnen soll für die Beta-Software noch eine frühere Version verwendet werden, die auch in Teslas ohne die FSD-Option läuft. Tatsächlich sind Beschwerden über so genannte Phantom-Bremsungen bei der Nutzung serienmäßiger Autopilot-Funktionen seit Jahren verbreitet und haben seit dem Verzicht auf Radar bei Tesla deutlich zugenommen.
Die US-Verkehrsbehörde NHTSA, bei der bereits mehrere Autopilot-Verfahren laufen, hat zum dem Unfall auf der Bay Bridge eine Sonderuntersuchung begonnen, berichtete anschließend CNBC. Derzeit beschäftige sich die Behörde mit mindestens 41 Unfällen, bei denen Assistenz-Funktionen von Tesla einschließlich der Beta-Software FSD eine Rolle gespielt haben könnten; bei 14 davon sei es zu Todesfällen gekommen. Tesla selbst hat noch keine Statistiken über den Beta-Test veröffentlicht und seit Ende 2021 auch keine Angaben über die relative Unfall-Häufigkeit bei Nutzung des Standard-Autopiloten mehr.