Autopilot 2.0: Tesla wird höchstwahrscheinlich NVIDIA-Hardware nutzen

Wir hatten erst kürzlich darüber berichtet, dass Tesla eine eigene Entwicklung für die Hardware des zukünftigen Autopilot-Systems anstrebt. Bisher wurde man vom Zulieferer Mobileye mit entsprechender Hardware beliefert, worauf die von Tesla entwickelte Software lief. Unter dem Namen „Tesla Vision“ entwickelt der Autobauer jedoch nun sein ganz eigenes System.

Viel war bisher nicht darüber bekannt, doch jetzt will der Branchendienst Electrek bisher nicht veröffentlichte Informationen über das Programm erfahren haben. Demnach handelt es sich bei „Tesla Vision“ um ein Ende-zu-Ende-System für Maschinelles Sehen, welches auf die NVIDIA-Architektur CUDA beruht. NVIDIA beschreibt diese Architektur wie folgt:

CUDA ist eine NVIDIA Architektur für parallele Berechnungen, die die Rechenleistung des Systems durch Nutzung der Leistung des Grafikprozessors deutlich steigern kann.

Millionen CUDA-fähige Grafikprozessoren sind bereits im Einsatz, und Softwareprogrammierer, Wissenschaftler und Forscher verwenden CUDA in unterschiedlichen Bereichen, von der Bild- und Videoverarbeitung über Computerbiologie und -chemie, numerische Strömungssimulationen, CT-Bildrekonstruktion und seismische Analysen bis hin zu Raytracing und vielem mehr.

Das neue System von Tesla wird Daten mittels der Kamerasensoren aufnehmen und eine eigene Bildverarbeitung vornehmen, um das Tesla-Fahrzeug zu steuern. Zusätzlich wird ein tiefes neuronales Netzwerk antrainiert, welches zusammen mit Teslas kürzlich veröffentlichten Radar-Verarbeitungssystem arbeitet.

Elon Musk hat bereits Ende letzten Jahres via Twitter ein Gesuch nach „hardcore“ Softwareentwickler aufgegeben. Seither hat man eine kleine Einheit an Wissenschaftler aus dem Bereich Bildverarbeitung eingestellt, darunter einen ehemaligen Microsoft-Mitarbeiter, der die Augmented-Reality-Brille HoloLens entwickelt hat. Andere Experten befassen sich mit der menschlichen Wahrnehmung.

Das neue Autopilot-System von Tesla soll jedes aktuell verfügbare System im Bereich des (teil-)autonomen Fahrens übertreffen. Da Tesla die CUDA-Architektur von NVIDIA einsetzen wird, kann man höchstwahrscheinlich davon ausgehen, dass man ebenfalls NVIDIA-Hardware für den Autopilot 2.0 nutzen wird. Bereits jetzt nutzt man NVIDIAs Tegra-Prozessor für das Infotainmentsystem des Model S und Model X.

Musk hat erst im vergangenen Monat erklärt, dass man bei der aktuellen Hardware des Autopiloten das Limit erreicht habe. Zwar wird man durch Schwarmwissen weitere Verbesserungen noch über Jahre hinweg realisieren können, doch ist ein höheres Level hinsichtlich des autonomen Fahrens damit offenbar nicht möglich.

Tesla kann aus einer Vielzahl von GPUs aus dem Programm von NVIDIA wählen. Interessanterweise hat der Prozessorhersteller eine neue KI-Computing-Plattform namens Drive PX 2 kürzlich vorgestellt, die autonomes Fahren ermöglichen soll. NVIDIA beschreibt die Plattform wie folgt:

Mit NVIDIA® DRIVE™ PX 2, einer offenen KI-Computing-Plattform für Fahrzeuge, können Automobilhersteller und ihre Direktlieferanten die Produktion automatisierter und autonomer Fahrzeuge beschleunigen. Die Skalierbarkeit der Plattform reicht von einem handtellergroßen, energieeffizienten Modul für Tempomatfunktionen bis hin zu einem leistungsstarken KI-Supercomputer, der autonomes Fahren ermöglicht.

Die skalierbare Architektur ermöglicht Konfigurationen, die von einem Mobilprozessor mit Passivkühlung und 10 Watt Leistungsaufnahme bis hin zu einem Hochleistungsszenario mit zwei Mobilprozessoren und zwei diskreten Grafikprozessoren reichen, das 24 Billionen Deep-Learning-Operationen pro Sekunde ermöglicht. Für vollständig autonomes Fahren lassen sich mehrere DRIVE PX 2-Plattformen auch parallel einsetzen.

DRIVE PX 2 ist in der Lage, die Daten von 12 Kameras sowie von Lidar, Radar und Ultraschallsensoren gemeinsam auszuwerten. Das erlaubt Algorithmen, das komplette 360°-Umfeld um das Auto herum präzise zu verstehen, um eine solide Darstellung einschließlich statischer und dynamischer Objekte auszugeben. Der Einsatz von Deep Neural Networks (DNN) bei der Erkennung und Klassifizierung von Objekten erhöht die Genauigkeit der Ergebnisse aus den zusammengelaufenen Sensordaten.

nvidia-drive-px-2-tesla

Verschiedene Kombinationsmöglichkeiten, je nach Anforderung (Bild © NVIDIA)

Tesla hat angekündigt, am 17. Oktober ein neues Produkt zu enthüllen. Worum es sich dabei handelt, kann zurzeit nur spekuliert werden. Da der Autopilot in letzter Zeit mehrmals in Kritik geraten ist, wäre dies ein passender Zeitpunkt, ein Upgrade vorzustellen.

Randnotiz: NVIDIA-CEO Jen-Hsun Huang ist übrigens ein Tesla-Fan und stolzer Besitzer mehrere Tesla-Fahrzeuge. Zuletzt zeigte er sich mit seinem Model X P90D der „Founder Series“.

  • KingArtus

    Klingt vielversprechend…

  • Nelkenduft / AHF

    Was genau soll denn ein tiefes neuronales Netzwerk sein? Klingt irgendwie nach 1 zu 1 Übersetzung aus dem Englischen, aber der Begriff ist mir gänzlich unbekannt.
    Bis auf „Tiefe vorwärtsgerichtete Netzwerke“ nach Kunihiko Fukushimas konnte ich zu dem Thema auch nicht viel finden.

    • Teslamag.de (TK)

      Deep neural Network, kann aber auch auf Deutsch so übersetzen. Die englische Bezeichnung ist zwar gängiger, aber ich habe beide Bezeichnungen im Text eingefügt. Ich finde es oftmals ganz gut, wenn man passende deutsche Bezeichnungen nutzt.

      • Nelkenduft / AHF

        Ja natürlich, da bin ich ganz bei euch! Aber ist ein „deep neural network“ nicht eher ein künstliches neuronales Netz?

  • Sonntagskuchen

    Da steige ich aus. Das hört sich mir zu sehr nach Science-Fiction an. Künstliche neuronale Netzwerke verbinde ich mit künstlicher Intelligenz. Und die in einer Platine des Autopiloten?

    Kennt sich da jemand fachlich aus? Mir macht das ein wenig Angst…. Ich glaube, ich werde den Autopiloten, wenn ich denn das Model 3 hoffentlich in 2018 betreten darf, vorerst ausschalten.

  • efe

    Ich wundere mich nur um wieviel der Preis für die Autopilotoption ansteigen wird. Die Preise von DRIVE PX 2 sollen sich auf mehrere tausend $ belaufen, http://vrworld.com/2016/04/05/nvidia-drive-px2-next-gen-tegra-pascal-gpu/, „DRIVE PX 2 already shipped to the initial Tier 1 customers, at a price of approximately $15,000 per unit.“
    Dabei sind die Kosten für die anderen Sensoren gar noch nicht eingerechnet.

    • Markus

      Dabei handelt es sich ja um ein „rapid prototyping system“, also quasi ein „dev kit“ wenn du dir mal preise für solche development kits anguckst, sind die nicht selten 20x-50x teurer, als der chip alleine. Wenn das hier ähnlich ist, kostet die hardware dann also so 300-800€ + ein bisschen Schaltung drum rum + Sensoren. Hört sich schon realistischer an, oder? 😉