Der kalifornische Unternehmer und Milliardär Dan O’Dowd, der in diesem April mit TV-Spots gegen den FSD-Betatest bei Tesla überraschend in das Rennen um eine Kandidatur für die demokratische Partei bei der Senatswahl im November antrat, hat politisch verloren – setzt seine Kampagne gegen das System aber fort. Auf Twitter präsentierte er nach dem klaren Ausscheiden bei der Vorwahl im Juni jetzt einen neuen Spot, der landesweit im Fernsehen gezeigt werden soll. Darin fährt ein Tesla Model 3 wiederholt einen Kinder-Dummy um, und am Ende fordert O’Dowd dazu auf, beim US-Kongress anzurufen, um ein Ende von „Tesla Full Self-Driving“ zu verlangen. Aktualisierung: Der Unternehmer hat sich für eine „Irreführung“ entschuldigt (s. ganz unten).
Tesla Model 3 bremst nicht für kleinen Dummy
Diese Beta-Software wird seit Oktober 2020 in immer neuen Versionen in den USA und seit kurzem auch Kanada getestet, nach den neuesten Angaben von Tesla mit rund 100.000 Teilnehmern. Auf diese Zahl weist auch das neue Video von O’Dowd hin, zu schnellen Tesla-Fahrten groß eingeblendet und vom ihm genannt. Oben rechts ist „Actual Full Self-Driving Mode“ zu sehen, während sich die Kamera unerbittlich einem künstlichen Kind mitten in seinem Fahrweg nähert, bis es seitlich wegfliegt.
In einer weiteren Nachricht schrieb O’Dowd, es habe viele Nachfragen zu dem Test gegeben, und veröffentlichte einen Link auf ein Dokument, in dem er erklärt und dokumentiert wird. Das verwendete Tesla Model 3 sei mit der neuesten Version der Beta-Software ausgestattet gewesen, heißt es darin. Der Test habe innerhalb eines mit Pylonen rechts und links begrenzten Stücks einer Fahrbahn von rund 110 Metern Länge stattgefunden. Am Ende dieser Spur stand in der Mitte ein bekleideter Dummy in Kleinkind-Größe – nur ungefähr so hoch wie die Pylonen, wie man in einem Video-Standbild sieht. Ein professioneller Test-Fahrer sei mit 40 Meilen pro Stunde (64,4 km/h) in die Spur eingefahren, habe dann die FSD-Software aktiviert und anschließend weder gebremst noch gelenkt noch beschleunigt.
There have been lots of requests to see the original data for this test. Further details can be found here: https://t.co/KMff74GBBt
We are prepared to reproduce these scientific safety tests for the media and regulators.
#FSDDelendaEst— Dan O'Dowd (@RealDanODowd) August 9, 2022
Laut dem Video „immer wieder“ und laut der Erklärung bei drei von drei Versuchen endete die Fahrt damit, dass der Tesla den kleinen Dummy rammte. Nach dem Aktivieren des FSD-Modus habe das Model 3 jeweils gezögert und gebremst, um vor dem Aufprall auf das Kind jeweils wieder auf mindestens 24 Meilen pro Stunde zu beschleunigen, schreibt das Dawn Project von O’Dowd, und hält zusammenfassend fest: Ein aufmerksamer menschlicher Fahrer würde ein mitten auf der Straße stehendes Kind bei Annäherung über knapp 100 Meter mit mäßigem Tempo gewiss bemerken, Teslas FSD-Software aber scheitere an dieser Aufgabe – „wiederholt und mit tödlichen Konsequenzen“.
Tesla-Freunde auf Twitter wollten dieses Urteil nicht hinnehmen – laut CEO Elon Musk macht assistiertes und bald autonomes Fahren mit Autopilot-Hilfe den Verkehr im Gegenteil sicherer. Ein Nutzer wies auf Tests des Instituts IIHS hin, in denen ein Model Y bei einem die Fahrbahn kreuzenden Kunst-Kind aus 12 und 25 Meilen pro Stunde rechtzeitig abbremste. Ein anderer organisierte einen eigenen Versuch mit einer Kind-Figur aus Pappe in einer Wohnstraße. Sein Tesla unter FSD-Steuerung wich aus oder stoppte, auch in Nachtests, bei denen die Figur bewegt wurde. Der Blog Electrek berichtete, bei den Tests sei FSD gar nicht aktiviert gewesen, was andere nur für einen Teil des Video-Materials bestätigten.
Update: Unternehmer entschuldigt sich
Nachdem er und seine Veröffentlichung einige Tage lang auf Twitter kritisiert worden waren, veröffentlichte O’Dowd am späten Freitagabend eine Entschuldigung. Es tue ihm leid, in die Irre geführt zu haben, schrieb er in einem neuen Beitrag, ohne genau zu erklären, worin die Täuschung lag. Er habe sich auf Berichte von anderen verlassen und diese nicht verifiziert, informierte der Unternehmer nur. Das Ende seiner Kampagne gegen FSD bedeutete allerdings auch das noch nicht: Inzwischen habe er die Beta-Software 20 Stunden lang persönlich genutzt und könne berichten, dass sie das am inkompetentesten angelegte, umgesetzte und getestete Produkt sei, das er je gesehen habe. Im Umkehrschluss dürfte das bedeuten, dass O’Dowd vor dem Start seiner Kampagne im April keine eigene Erfahrung mit der Tesla-Software hatte.
Apology
I’m sorry that I misled you. I relied on reports from others that I did not verify. But now having personally experienced 20 hours of @ElonMusk’s Full Self-Driving…
I can report that it is the most incompetently designed, implemented and tested product I've ever seen.
— Dan O'Dowd (@RealDanODowd) August 12, 2022