NVIDIA Grace-CPU

Speziell entwickelt, um die größten Computing-Probleme der Welt zu lösen.

Beschleunigung der größten KI-, HPC-, Cloud- und Hyperscale-Workloads

Die Komplexität und Größe von KI-Modellen nimmt rasant zu. Sie verbessern die Konversations-KI mit Hunderten von Milliarden von Parametern, verbessern Deep-Recommendation-Systeme mit Dutzenden von Terabytes an Daten und ermöglichen neue wissenschaftliche Entdeckungen. Diese gewaltigen Modelle bringen die heutigen Systeme an ihre Grenzen. Um diese weiterhin in Bezug auf Genauigkeit und Verallgemeinerbarkeit zu skalieren, ist ein schneller Zugriff auf eine große Speichermenge und eine enge Kopplung von CPU und GPU erforderlich.

Führende globale Systemhersteller beschleunigen die Einführung von NVIDIA Grace und Grace Hopper

Produkte

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper Superchip kombiniert die Grace- und Hopper-Architekturen mithilfe von NVIDIA® NVLink-C2C, um ein kohärentes CPU- und GPU-Speichermodell für beschleunigte KI- und High Performance Computing(HPC)-Anwendungen bereitzustellen.

  • CPU+GPU für KI und HPC im großen Maßstab
  • Neue kohärente Schnittstelle mit 900 Gigabyte pro Sekunde (GB/s), 7-mal schneller als PCIe der 5. Generation
  • 30-mal höhere Gesamt-Systemspeicherbandbreite gegenüber GPU im Vergleich zu DGX A100
  • Führt alle NVIDIA-Software-Stacks und -Plattformen aus, einschließlich NVIDIA HPC, NVIDIA AI und NVIDIA Omniverse
NVIDIA Grace Hopper Superchip
NVIDIA Grace Superchip-CPU

NVIDIA Grace Superchip-CPU

Die NVIDIA Grace Superchip-CPU nutzt die NVLink-C2C-Technologie, um 144 Arm® v9-Recheneinheiten und eine Speicherbandbreite von 1 TB/s bereitzustellen.

  • Hochleistungs-CPU für HPC und Cloud-Computing
  • Super-Chip-Design mit bis zu 144 Arm v9-CPU-Recheneinheiten
  • Weltweit erster LPDDR5x mit ECC-Speicher, 1 TB/s Gesamtbandbreite
  • SPECrate®2017_int_base über 740 (geschätzt)
  • Kohärente Schnittstelle mit 900 GB/s, 7-mal schneller als PCIe der 5. Generation
  • 2-fache Packaging-Dichte von DIMM-basierten Lösungen
  • 2-mal mehr Leistung pro Watt als bei der führenden CPU von heute
  • Führt alle NVIDIA-Software-Stacks und -Plattformen aus, einschließlich NVIDIA RTX, HPC, NVIDIA AI und NVIDIA Omniverse

NVIDIA Grace-Referenzdesigns für moderne Rechenzentrums-Workloads

Ankündigung von Systemdesigns für digitale Zwillinge, Cloud-Grafik und -Gaming, KI und High Performance Computing.

CGX-Cloud-Grafik und -Gaming

CGX

Cloud-Grafik und -Gaming

Grace Superchip-CPU
A16
BlueField-3

OVX-digitale Zwillinge und Omniverse

OVX

Digitale Zwillinge und Omniverse

Grace Superchip-CPU
NVIDIA-GPUs
BlueField-3

HGX-HPC

HGX

HPC

Grace Superchip-CPU
BlueField-3
OEM-definiertes IO

HGX-KI-Training, -Inferenz und -HPC

HGX

KI-Training, -Inferenz und -HPC

Grace Hopper Superchip
BlueField-3
OEM-definiertes IO/NVLink der 4. Generation

Entwickelt zum Lösen komplexer Probleme

Die NVIDIA Grace-CPU nutzt die Flexibilität der Arm®-Architektur, um eine CPU- und Serverarchitektur zu erstellen, die von Grund auf für beschleunigtes Computing entwickelt wurde. Dieses innovative Design bietet eine bis zu 30-mal höhere Gesamtbandbreite im Vergleich zu den schnellsten gegenwärtig verfügbaren Servern und eine bis zu 10-mal höhere Leistung für Anwendungen mit einem Datenvolumen von mehreren Terabytes. NVIDIA Grace wurde entwickelt, um Wissenschaftlern und Forschern die Möglichkeit einzuräumen, die größten Modelle der Welt zu trainieren, um die komplexesten Probleme zu lösen.

Die neuesten technischen Innovationen

NVIDIA NVLink-C2C der vierten Generation

Die Lösung der größten KI- und HPC-Probleme erfordert sowohl Speicher mit hoher Kapazität als auch mit hoher Bandbreite (HBM). Die vierte Generation des NVIDIA NVLink-C2C bietet eine bidirektionale Bandbreite von 900 GB/s zwischen der NVIDIA Grace-CPU und den NVIDIA-GPUs. Die Verbindung stellt einen einheitlichen, cachekohärenten Speicheradressraum bereit, der System- und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert. Diese nahtlose Verbindung mit hoher Bandbreite zwischen CPU und GPUs ist der Schlüssel zur Beschleunigung der komplexesten KI- und HPC-Probleme der Zukunft.

Neues Speichersubsystem mit hoher Bandbreite unter Verwendung von LPDDR5x mit ECC

Die Speicherbandbreite ist ein entscheidender Faktor für die Serverleistung, und der Standard-DDR-Speicher mit doppelter Datenrate (DDR) verbraucht einen wesentlichen Teil der gesamten Stromversorgung. Die NVIDIA Grace-CPU ist die erste Server-CPU, die LPDDR5x-Speicher mit der Zuverlässigkeit der Serverklasse durch Mechanismen wie Fehlerkorrekturcode (ECC) nutzt, um den Anforderungen des Rechenzentrums gerecht zu werden, und dabei eine zweimal höhere Speicherbandbreite und eine bis zu zehnmal bessere Energieeffizienz im Vergleich zu aktuell verfügbaren Serverspeichern bietet. Die NVIDIA Grace LPDDR5x-Lösung in Verbindung mit dem umfangreichen und leistungsstarken Last-Level-Cache liefert die erforderliche Bandbreite für groß dimensionierte Modelle und reduziert gleichzeitig den Systemstrom, um die Leistung für die nächste Generation von Workloads zu optimieren.

Die nächste Generation von Arm v9-Kernen

Auch wenn die parallelen Rechenkapazitäten von GPUs immer weiter fortschreiten, können Workloads nach wie vor durch serielle Aufgaben, die auf der CPU ausgeführt werden, eingeschränkt werden. Eine schnelle und effiziente CPU ist eine entscheidende Komponente des Systemaufbaus, um eine optimale Beschleunigung der Workloads zu ermöglichen. Die NVIDIA Grace-CPU integriert Arm v9-Kerne der nächsten Generation, um eine hohe Leistung in einem stromsparenden System zu erzielen und Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Partner

Asus
Atos logo
DELL logo
Fii-Logo
Gigabyte-Logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-Logo
xfusion-logo

Führende globale Systemhersteller beschleunigen die Einführung von NVIDIA Grace und Grace Hopper