In einem Vortrag auf der Maschinenlern-Konferenz Scaled ML in Kalifornien hat Teslas oberster Experte für künstliche Intelligenz (KI) interessante Einblicke in die Funktionsweise des Autopilot-Systems von Tesla geliefert – und anhand von Videos zeigte er, wie die Software gefährliche Situationen erkennt und darauf reagiert. Die Veranstaltung fand schon Ende Februar statt, jetzt wurde das Material dazu einschließlich der Rede von Andrej Karpathy veröffentlicht, der bei Tesla als Senior Director of Artificial Intelligence den KI-Teil des Autopiloten verantwortet.
Tesla setzt auf Kamera-Bilder
Wie Karpathy wiederholte, ist der Ansatz von Tesla für autonomes Fahren anders als bei fast allen anderen Unternehmen, die sich daran versuchen. Anders als beispielsweise Waymo arbeite Tesla nicht mit Lidar und hoch aufgelösten Karten (HD-Karten), sondern fast ausschließlich mit Kameras. Dies sei zwar weitaus schwieriger, habe aber den Vorteil, dass sich einmal entwickelte Funktionen auf beliebige Situationen übertragen ließen. Und die Lücke zwischen dem, was teure Lidar-Geräte können und was mit Kameras möglich ist, werde immer kleiner.
Zu Beginn des Vortrags zeigte der KI-Chef Beispiele von Fußgängern, für die eines der Elektroautos von Tesla automatisch stoppte, als sie unachtsam auf die Straße traten. Dazu müsse nicht einmal der Autopilot aktiviert sein, erklärte Karpathy – das Umfeld werde auch so ständig beobachtet. Von den gezeigten Fällen bekomme sein Team täglich einige Dutzend bis Hunderte zu sehen. Nicht alle davon seien „true positives“, also korrekt erkannte Not-Situationen, aber auch aus den falschen Bewertungen könne das System lernen.
Denn Lernen ist das Entscheidende bei Teslas Autopilot, der laut Karpathy immer stärker auf den Einschätzungen von neuronalen Netzen basiert statt auf fest vorgegebenen Regeln. Das Grundprinzip erklärte er so: Zunächst entwickelt Tesla ein grobes Modell wie beispielsweise für die Erkennung von Stopp-Schildern (die in der Realität auf zehntausende Weisen unklar sein könnten) oder auch nur einen Teilaspekt davon. Dieses läuft dann zunächst nur im Hintergrund und meldet Inkonsistenzen an Tesla zurück. Anhand dieses Materials könne das zuständige neuronale Netz dann besser trainiert werden. All das gehe „sehr schnell und dynamisch“ vor sich, sagte Karpathy.
Kleines Elite-Team für Tesla-KI
Derzeit seien im Autopilot-System 48 unterschiedliche neuronale Netze für Teilaufgaben aktiv, erklärte Karpathy weiter – und sie alle würden von einem „kleinen Elite-Team von KI-Leuten bei Tesla“ gepflegt. Dies sei nur möglich, weil sich die Experten darauf konzentrierten, auch die Autopilot-Entwicklung selbst möglichst weitgehend zu automatisieren. So entstehe eine lernende KI-Infrastruktur, die angepasst für unterschiedliche Aufgaben verwendet werden könne.