Wer in Kalifornien autonome Autos testen will, muss das bei der Verkehrsbehörde DMW anmelden, jährlich Bericht über Probleme dabei erstatten und Regelverstöße seiner Fahrer im Auge behalten. Das tun inzwischen zum Beispiel die Anbieter Argo, Cruise, Waymo und Zoox – nicht aber Tesla, denn das Autopilot-System des Unternehmens soll zwar eines Tages ebenfalls Fahren ohne menschlichen Fahrer ermöglichen, wird aber einstweilen offiziell nur als moderne Assistenz bezeichnet. So konnte Tesla in den USA auch ohne DMV-Anmeldung den Test mit der Beta-Software FSD starten, mit der sein Autopilot jedenfalls theoretisch mit Straßen und Situationen jeder Art zurechtkommt. Nach Berichten denkt die Behörde jetzt aber doch darüber nach, den Beta-Test als Autonomie-Versuch einzustufen.
Behörde reagiert auf Tesla-Videos
Das DMW habe Tesla Anfang Januar informiert, dass es seine Haltung zur Einstufung des Beta-Tests überprüfe, berichtete am Dienstag die Los Angeles Times. Der Auslöser dafür sollen unter anderem Videos, die einen gefährlichen Einsatz der Tesla-Technologie zeigen, Untersuchungen des Autopilot-Systems durch die Bundesbehörde NHTSA und Meinungen von Experten gewesen sein, habe das DMV an eine kalifornische Senatorin geschrieben. Eine Sprecherin bestätigte der Washington Post, dass über eine Einstufung der FSD-Software im Test als autonom nachgedacht werde.
FSD steht bei Tesla für Full Self-Driving, also in etwa vollständig autonomes Fahren, und bezeichnet sowohl die in seinen Elektroautos eingebaute Computer-Hardware als auch die kostenpflichtige Software-Option dafür als auch die Beta-Software. Deren Test begann im Oktober 2020 mit einer kleinen Zahl von Tesla-Besitzern und wurde ab vergangenem Herbst ausgeweitet – nach Verzögerungen und dann langsamer als zunächst vorgesehen. Inzwischen hat die FSD-Software Version 10.8.1 erreicht, doch weiterhin melden ihre Tester teils gravierende Fehler.
Insofern ist die Einstufung als Assistenz-System, die Tesla laut Aufzeichnungen in Gesprächen mit DMV-Vertretern auch selbst vertrat, vielleicht angemessen. Die Fahrer der Elektroautos werden zudem darauf hingewiesen, dass sie auch bei FSD-Betrieb ständig verantwortlich bleiben und stets zum Eingreifen bereit sein müssen. Stufe 4 nach der internationalen Klassifikation, also von der Maschine verantwortetes Fahren in bestimmten Bereichen, soll nach den neuesten Aussagen von Tesla-CEO Elon Musk dazu jetzt in diesem Jahr erreicht sein.
Absicht bei FSD-Betatest entscheidend
Laut dem Bericht der LA Times könnten aber schon die bisherigen Fähigkeiten des FSD-Systems und vor allem die Absicht, die Tesla damit verfolgt, eine Autonomie-Einstufung nach den Zulassungsregeln dafür erfordern. Denn in der Praxis würden sich die Tests von Tesla und anderen Unternehmen in Kalifornien kaum unterscheiden. In allen Fällen fahre der Computer, aber zum Aufpassen sei ein Mensch dabei, sagte ein Professor, der an der Klassifizierung beteiligt war. Es sei laut dieser Definition nicht zulässig, ein auf Level 4 abzielendes System als Level 2 (also noch Assistenz) zu bezeichnen, nur weil Tests damit auf der Straße einen Menschen erfordern, der eingreifen kann.
Sollte das DMV seine Einschätzung zu dem FSD-Betatest ändern, müsste Tesla ihn laut dem Bericht bei der Behörde anmelden und dann Interventionen der menschlichen Fahrer sowie Unfälle melden. Laut der Washington Post müsste außerdem das Verkehrsverhalten der Teilnehmenden überwacht werden; dafür gibt es in Kalifornien ein Programm, über das Unternehmen über Verstöße ihrer Fahrer informiert werden. Informationen darüber, wie lange die begonnene Überprüfung dauern könnte gab es zunächst nicht. Ebenfalls noch nicht abgeschlossen ist ein Verfahren, das die Behörde im vergangenen Mai startete. Ähnlich wie in einem Prozess gegen Tesla in Deutschland geht es dabei um die Frage, ob Marketing-Aussagen des Unternehmens zu den Autopilot-Fähigkeiten irreführend sind.