Website-Icon Teslamag.de

Autopilot 2.0: Tesla wird höchstwahrscheinlich NVIDIA-Hardware nutzen

Bilder: NVIDIA

Anzeige

Wir hatten erst kürzlich darüber berichtet, dass Tesla eine eigene Entwicklung für die Hardware des zukünftigen Autopilot-Systems anstrebt. Bisher wurde man vom Zulieferer Mobileye mit entsprechender Hardware beliefert, worauf die von Tesla entwickelte Software lief. Unter dem Namen „Tesla Vision“ entwickelt der Autobauer jedoch nun sein ganz eigenes System.

Viel war bisher nicht darüber bekannt, doch jetzt will der Branchendienst Electrek bisher nicht veröffentlichte Informationen über das Programm erfahren haben. Demnach handelt es sich bei „Tesla Vision“ um ein Ende-zu-Ende-System für Maschinelles Sehen, welches auf die NVIDIA-Architektur CUDA beruht. NVIDIA beschreibt diese Architektur wie folgt:

CUDA ist eine NVIDIA Architektur für parallele Berechnungen, die die Rechenleistung des Systems durch Nutzung der Leistung des Grafikprozessors deutlich steigern kann.

Millionen CUDA-fähige Grafikprozessoren sind bereits im Einsatz, und Softwareprogrammierer, Wissenschaftler und Forscher verwenden CUDA in unterschiedlichen Bereichen, von der Bild- und Videoverarbeitung über Computerbiologie und -chemie, numerische Strömungssimulationen, CT-Bildrekonstruktion und seismische Analysen bis hin zu Raytracing und vielem mehr.

Das neue System von Tesla wird Daten mittels der Kamerasensoren aufnehmen und eine eigene Bildverarbeitung vornehmen, um das Tesla-Fahrzeug zu steuern. Zusätzlich wird ein tiefes neuronales Netzwerk antrainiert, welches zusammen mit Teslas kürzlich veröffentlichten Radar-Verarbeitungssystem arbeitet.

Elon Musk hat bereits Ende letzten Jahres via Twitter ein Gesuch nach „hardcore“ Softwareentwickler aufgegeben. Seither hat man eine kleine Einheit an Wissenschaftler aus dem Bereich Bildverarbeitung eingestellt, darunter einen ehemaligen Microsoft-Mitarbeiter, der die Augmented-Reality-Brille HoloLens entwickelt hat. Andere Experten befassen sich mit der menschlichen Wahrnehmung.

Das neue Autopilot-System von Tesla soll jedes aktuell verfügbare System im Bereich des (teil-)autonomen Fahrens übertreffen. Da Tesla die CUDA-Architektur von NVIDIA einsetzen wird, kann man höchstwahrscheinlich davon ausgehen, dass man ebenfalls NVIDIA-Hardware für den Autopilot 2.0 nutzen wird. Bereits jetzt nutzt man NVIDIAs Tegra-Prozessor für das Infotainmentsystem des Model S und Model X.

Musk hat erst im vergangenen Monat erklärt, dass man bei der aktuellen Hardware des Autopiloten das Limit erreicht habe. Zwar wird man durch Schwarmwissen weitere Verbesserungen noch über Jahre hinweg realisieren können, doch ist ein höheres Level hinsichtlich des autonomen Fahrens damit offenbar nicht möglich.

Tesla kann aus einer Vielzahl von GPUs aus dem Programm von NVIDIA wählen. Interessanterweise hat der Prozessorhersteller eine neue KI-Computing-Plattform namens Drive PX 2 kürzlich vorgestellt, die autonomes Fahren ermöglichen soll. NVIDIA beschreibt die Plattform wie folgt:

Mit NVIDIA® DRIVE™ PX 2, einer offenen KI-Computing-Plattform für Fahrzeuge, können Automobilhersteller und ihre Direktlieferanten die Produktion automatisierter und autonomer Fahrzeuge beschleunigen. Die Skalierbarkeit der Plattform reicht von einem handtellergroßen, energieeffizienten Modul für Tempomatfunktionen bis hin zu einem leistungsstarken KI-Supercomputer, der autonomes Fahren ermöglicht.

Die skalierbare Architektur ermöglicht Konfigurationen, die von einem Mobilprozessor mit Passivkühlung und 10 Watt Leistungsaufnahme bis hin zu einem Hochleistungsszenario mit zwei Mobilprozessoren und zwei diskreten Grafikprozessoren reichen, das 24 Billionen Deep-Learning-Operationen pro Sekunde ermöglicht. Für vollständig autonomes Fahren lassen sich mehrere DRIVE PX 2-Plattformen auch parallel einsetzen.

DRIVE PX 2 ist in der Lage, die Daten von 12 Kameras sowie von Lidar, Radar und Ultraschallsensoren gemeinsam auszuwerten. Das erlaubt Algorithmen, das komplette 360°-Umfeld um das Auto herum präzise zu verstehen, um eine solide Darstellung einschließlich statischer und dynamischer Objekte auszugeben. Der Einsatz von Deep Neural Networks (DNN) bei der Erkennung und Klassifizierung von Objekten erhöht die Genauigkeit der Ergebnisse aus den zusammengelaufenen Sensordaten.

Verschiedene Kombinationsmöglichkeiten, je nach Anforderung (Bild © NVIDIA)

Tesla hat angekündigt, am 17. Oktober ein neues Produkt zu enthüllen. Worum es sich dabei handelt, kann zurzeit nur spekuliert werden. Da der Autopilot in letzter Zeit mehrmals in Kritik geraten ist, wäre dies ein passender Zeitpunkt, ein Upgrade vorzustellen.

Randnotiz: NVIDIA-CEO Jen-Hsun Huang ist übrigens ein Tesla-Fan und stolzer Besitzer mehrere Tesla-Fahrzeuge. Zuletzt zeigte er sich mit seinem Model X P90D der „Founder Series“.

Anzeige
Die mobile Version verlassen