Die künstliche Intelligenz für den Tesla-Autopiloten ist ein lernendes System, aber dieses Lernen funktioniert offenbar anders, als man es sich als Laie vorstellt. Denn ein Tesla-Besitzer hat mit seinem Model X auf einer US-Autobahn jetzt eine Autopilot-Situation erlebt, wie sie vor zwei Jahren fast gleich schon einmal vorkam: Bei tief stehender Sonne fuhr das Tesla-System direkt auf eine Beton-Sperre zu, die am Ende einer Sperrzone die beiden Fahrspuren ganz links voneinander trennt. Weil der Fahrer aufmerksam war, konnte er kurz vorher nach rechts ausweichen. Aber im März 2018 war bei einem ähnlichen Vorfall ein Mann, der in seinem Tesla Model X nicht aufpasste, ums Leben gekommen.
Tesla-Fahrer war vorgewarnt
Von seinem aktuellen Autopilot-Erlebnis berichtete am Freitag unter der drastischen, aber nicht falschen Überschrift „Mein X hat heute versucht, mich zu töten“ der Tesla-Fahrer u/apextrader3 auf Reddit. Das dazu veröffentlichte Video wurde wahrscheinlich mit Hilfe der Dashcam-Funktion aufgenommen, mit der man die Aufnahmen der Tesla-Kameras durch Betätigen der Hupe speichern kann. Kommentatoren wiesen gleich auf die Parallelen zu dem tödlichen Unfall vor zwei Jahren hin. Auch der Fahrer des Model X erklärte, er habe davon gewusst und daran gedacht, als er an die kritische Stelle kam. Er sei deshalb besonders aufmerksam gewesen.
Bei dem angesprochenen Vorfall kam im März 2018 ein 38 Jahre alter Apple-Entwickler auf dem Highway 101 in Kalifornien ums Leben. Laut einer späteren NTSB-Untersuchung war vor dem Aufprall seines Tesla Model X auf den Fahrbahn-Trenner mit 70 Meilen pro Stunde die Autopilot-Funktion Autosteer aktiviert und der Fahrer mit einem Video-Spiel beschäftigt. Die Verantwortung für den Tod sah die Behörde teils bei Tesla wegen Schwächen seines Systems, teils beim Fahrer wegen seiner mangelnden Aufmerksamkeit und teils beim Autobahn-Betreiber wegen schlechter Fahrbahn-Markierungen und weil er ein potenziell rettendes Knautsch-Element vor dem starren Beton nach einem früheren Unfall nicht ersetzt hatte.
so apparently driving into a gore zone is still a thing at a certain locationhttps://t.co/eFkhdSh1mS
— green (@greentheonly) July 17, 2020
Wie die aktuelle Beinahe-Wiederholung auf einer anderen kalifornischen Autobahn zeigt, hat Tesla das Problem mit der Verwechslungsgefahr bei geteilten linken Spuren bislang offenbar nicht in den Griff bekommen oder sich nicht daran versucht. Zudem rammte erst in dieser Woche erneut ein Tesla von hinten einen für einen Einsatz stehenden Polizeiwagen, laut dem Fahrer unter Autopilot. Und ein deutsches Gericht hat Tesla vorläufig verboten, mit bestimmten Aussagen für das autonom werdende System zu werben.
Aufpassen auf Teslas Autopilot
Solche Entwicklungen scheinen nicht gut zu Aussagen von CEO Elon Musk zu passen, selbst autonomes Fahren der höchsten Stufe 5 sei bei Tesla als Problem im Prinzip gelöst und in wenigen Monaten würden viele neue Autopilot-Funktionen fertig werden. Der Tesla-Chef schränkt dabei aber selbst ein, dass sie anschließend noch intensiv getestet werden müssen, bevor sie für die Fahrer seiner Elektroautos freigeschaltet werden. An vielen Stellen weist Tesla inzwischen zudem darauf hin, dass der Autopilot bis auf Weiteres nur ein Assistenz-System ist, das ständig überwacht werden muss.
Wie es aussieht, dauert es bis zu genügend künstlicher Intelligenz für autonomes Fahren also noch ein wenig. Aber der aktuelle Fall mit dem Model X und die Kommentare dazu sprechen dafür, dass menschliche Intelligenz zumindest immer besser versteht, wie gut man auf Teslas Autopilot noch aufpassen muss.