Als Senior Director of Artificial Intelligence ist Andrew Karpathy für den wichtigsten Teil der Software von Teslas Autopilot-System verantwortlich – er muss also sozusagen dafür sorgen, dass die von CEO Elon Musk verkündeten ehrgeizigen Ziele und Termine für autonomes Fahren eingehalten werden. Die Fertigstellung aller Teil-Funktionen für Autopilot ist ausgesprochen schwierig und dauert lange, erklärte Karpathy jetzt in einem Vortrag. Aber anders als konkurrierende Systemen würden sie, wenn es erst einmal so weit sei, fast von selbst zuverlässig funktionieren.
Komplexe Aufgaben bei Tesla
Dass sich Karpathy mit seiner anspruchsvollen Aufgabe sehr identifiziert, zeigte er bei dem Vortrag bei einem Workshop zu autonomem Fahren Mitte Juni schon dadurch, dass er mehrfach von „wir“ sprach, wenn er Reaktionen des Autopilot-Systems von Tesla beschrieb. Wie er erklärte, sieht es von außen fast gleich aus, wenn Autos von Tesla und von konkurrierenden Entwicklern wie Waymo autonom fahren. Im Inneren arbeiten die Systeme arbeiten vollkommen unterschiedlich: Waymo und andere seien auf vorher angefertigte HD-Karten ihres Umfeldes angewiesen, Teslas Autopilot dagegen mache sich jeweils in Echtzeit ein Bild davon.
Dabei setzt die Software unter anderem Bilder der um Teslas Elektroautos verteilten acht Kameras zusammen und berechnet daraus eine Vogel-Perspektive der Szenerie. Parallel erledigen mehrere neuronale Teil-Netze verschiedene Erkennungsaufgaben; diese können von Tesla-Entwicklern programmiert und dann zur Verfeinerung mittels Praxis-Daten an die Flotte auf Straßen weltweit geschickt werden. Aber die Erkennung sowohl von Straßenverläufen als auch von Schildern und Signalen kann überaus komplex sein, erklärte Karpathy weiter. Zum Beleg zeigte er wie schon auf einer früheren Konferenz Beispiele dafür, wie unterschiedlich, verdeckt und eineindeutig Stopp-Schilder sein können.
Die Erkennung von Ampeln und Stopp-Schildern hat Tesla vor kurzem auch in Europa eingeführt, aber hier werden sie bislang nur angezeigt und ansonsten ignoriert. In den USA hält der Autopilot an ihnen auch schon an. Anfangs war das bei jeder auch grünen Ampel so, wenn der Tesla-Fahrer nicht ein Gegen-Signal gab. Nach ersten Meldungen aus den USA ist Tesla aber gerade dabei, neue Software zu verteilen, die weniger vorsichtig ist. Das dürfte ein weiteres Beispiel dafür sein, wie Karpathys Team neue Funktionen zunächst grob einführt und dann mit Praxis-Daten verbessert.
Dass weltweit ungefähr eine Million Teslas voller Sensoren unterwegs sind, bezeichnete Karpathyals einen der größten Vorteile des Unternehmens. Zuletzt habe man sich intensiv mit Tempolimit-Erkennung beschäftigt, berichtete der KI-Chef außerdem; Hacker haben Anzeichen dafür gefunden, dass Tesla sie bald in den Autopilot einspielen wird, vielleicht sogar schon für Europa. Die Vielfalt sei hier mindestens so hoch wie bei Ampeln, eine „verrückte Herausforderung“, sagte Karpathy.
„Nur Tesla braucht keine HD-Karten“
Dennoch habe Tesla keine Wahl, als sich diese Arbeit zu machen. Gut daran sei, dass ein kleines Kern-Team von Experten die neuronalen Netze programmieren könne, während die intensive Arbeit der Kennzeichnung von Trainingsbildern für die KI größeren Gruppen von Helfern überlassen werde. All das dauere einfach seine Zeit und brauche wie jede Software mehrere Iterationen. Letztlich sei es aber sehr bereichernd, wenn die eigene Arbeit nach und nach in die Tesla-Praxis komme, sagte Karpathy.
„Glaubt nicht, dass ihr mit hochaufgelösen Lidar-Karten davonkommt“, richtete Teslas KI-Chef eine Mahnung an nach seiner Darstellung alle anderen Anbieter, die sich an autonomem Fahren versuchen. Mit HD-Karten könne man zwar schnellere Erfolge vorweisen, aber immer nur dort, wo das Umfeld bereits genau vermessen wurde – und vor allem könnten solche Systeme anders als das von Tesla nicht mit Abweichungen von den gespeicherten Daten umgehen. Bevor sie wieder funktionieren, müsse es erst eine neue Vermessung geben.