Bei der Entwicklung und dem Training von Deep Neural Network-Modellen ist die Geschwindigkeit entscheidend, wenn es darum geht, äußerst präzise Wahrnehmungssysteme für autonome Fahrzeuge bereitzustellen. Dafür ist jedoch eine Infrastruktur erforderlich, die in der Lage ist, diese Netzwerke mit riesigen Datenmengen zu trainieren. Außerdem müssen Hunderttausende von Bildern im großen Maßstab erfasst, kuratiert und gekennzeichnet werden.
Um die Zukunft autonomer Fahrzeuge zu gestalten, ist eine enorm leistungsfähige und energieeffiziente KI-Computing-Infrastruktur erforderlich. Der Schlüssel zum Erfolg sind die Optimierung der Datenlast für das Training und der Betrieb der Fahrzeuge ohne Einschränkungen bei der Sicherheit. Je mehr Daten die Autos sammeln und verarbeiten können, desto schneller und besser kann die KI lernen und Entscheidungen treffen.
Die Skalierung Ihres Rechenzentrums durch den Einsatz von NVIDIA® DGX™-Systemen mit Grafikprozessorbeschleunigung ist die beste Möglichkeit, eine KI-Infrastruktur aufzubauen, mit der sichere autonome Fahrzeuge für Verbraucher entwickelt werden können. Erleben Sie eine beispiellose Leistung mit dem NVIDIA DGX H100-KI-Kraftpaket, das durch die bahnbrechende Leistung der NVIDIA H100 Tensor Core-GPU beschleunigt wird. Mit einer schlüsselfertigen KI-Rechenzentrumslösung basierend auf NVIDIA DGX SuperPOD™ können Sie außerdem Millionen von Permutationen unter Umgebungsbedingungen oder transienten Bedingungen testen und die Modellgenauigkeit für ein höheres Maß an Sicherheit erhöhen, ohne die Produktionszeit zu beeinträchtigen.
Zenuity beschleunigt die Entwicklung intelligenterer und sicherer autonomer Fahrzeuge mithilfe einer skalierbaren KI-Plattform. Hier erfahren Sie mehr.
Erfahren Sie, wie Tesla einen hauseigenen Supercomputer mit NVIDIA A100-Grafikprozessoren einsetzt, um Deep Neural Networks für Autopiloten und autonomes Fahren zu trainieren.