NVIDIA Grace-CPU

Speziell für das Training der weltweit größten Modelle entwickelt

Zukunftsweisende CPU für die größten KI- und HPC-Workloads

Die Komplexität und Größe von KI-Modellen nimmt rasant zu. Sie verbessern die Konversations-KI mit Hunderten von Milliarden von Parametern, verbessern Deep-Recommendation-Systeme mit Einbettungstabellen im Umfang von Dutzenden von Terabytes an Daten und ermöglichen neue wissenschaftliche Entdeckungen. Diese gewaltigen Modelle bringen die heutigen Systeme an ihre Grenzen. Um diese weiterhin in Bezug auf Genauigkeit und Verallgemeinerbarkeit zu skalieren, ist ein schneller Zugriff auf eine große Speichermenge und eine enge Kopplung von CPU und GPU erforderlich.

Sehen Sie sich die Keynote der GTC an, in der Jensen Huang, Gründer und CEO von NVIDIA, die NVIDIA Grace CPU vorstellt.

 

Entwickelt zum Lösen komplexer Probleme

Die NVIDIA Grace-CPU nutzt die Flexibilität der Arm®-Architektur, um eine CPU- und Serverarchitektur zu erstellen, die von Grund auf für beschleunigtes Computing entwickelt wurde. Dieses innovative Design bietet eine bis zu 30-mal höhere Gesamtbandbreite im Vergleich zu den schnellsten gegenwärtig verfügbaren Servern und eine bis zu 10-mal höhere Leistung für Anwendungen mit einem Datenvolumen von mehreren Terabytes. NVIDIA Grace wurde entwickelt, um Wissenschaftlern und Forschern die Möglichkeit einzuräumen, die größten Modelle der Welt zu trainieren, um die komplexesten Probleme zu lösen.

Die neuesten technischen Innovationen

NVIDIA NVLink – Technologie der vierten Generation

Die Lösung der größten KI- und HPC-Probleme erfordert sowohl Speicher mit hoher Kapazität als auch mit hoher Bandbreite (HBM). Die vierte Generation von NVIDIA® NVLink® bietet eine bidirektionale Bandbreite von 900 Gigabyte pro Sekunde (GB/s) zwischen der NVIDIA Grace-CPU und den NVIDIA-GPUs. Die Verbindung stellt einen einheitlichen, cache-kohärenten Speicheradressraum bereit, der System- und HBM-GPU-Speicher zugunsten einer vereinfachten Programmierbarkeit miteinander kombiniert. Diese nahtlose Verbindung mit hoher Bandbreite zwischen CPU und GPUs ist der Schlüssel zur Beschleunigung der komplexesten KI- und HPC-Probleme der Zukunft.

Neues Speichersubsystem mit hoher Bandbreite unter Verwendung von LPDDR5x mit ECC

Die Speicherbandbreite ist ein entscheidender Faktor für die Serverleistung, und der Standard-DDR-Speicher mit doppelter Datenrate (DDR) verbraucht einen wesentlichen Teil der gesamten Stromversorgung. Die NVIDIA Grace-CPU ist die erste Server-CPU, die LPDDR5x-Speicher mit der Zuverlässigkeit der Serverklasse durch Mechanismen wie Fehlerkorrekturcode (ECC) nutzt, um den Anforderungen des Rechenzentrums gerecht zu werden, und dabei eine zweimal höhere Speicherbandbreite und eine bis zu zehnmal bessere Energieeffizienz im Vergleich zu aktuell verfügbaren Serverspeichern bietet. Die NVIDIA Grace LPDDR5x-Lösung in Verbindung mit dem umfangreichen und leistungsstarken Last-Level-Cache liefert die erforderliche Bandbreite für groß dimensionierte Modelle und reduziert gleichzeitig den Systemstrom, um die Leistung für die nächste Generation von Workloads zu optimieren.

Die nächste Generation von Arm Neoverse-Kernen

Auch wenn die parallelen Rechenkapazitäten von GPUs immer weiter fortschreiten, können Workloads nach wie vor durch serielle Aufgaben, die auf der CPU ausgeführt werden, eingeschränkt werden. Eine schnelle und effiziente CPU ist eine entscheidende Komponente des Systemaufbaus, um eine optimale Beschleunigung der Workloads zu ermöglichen. Die NVIDIA Grace-CPU integriert Arm Neoverse™-Kerne der nächsten Generation, um eine hohe Leistung in einem stromsparenden System zu erzielen und Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Sehen Sie sich die GTC-Keynote von NVIDIA-Gründer und CEO Jensen Huang an, in der er die NVIDIA Grace-CPU vorstellt. Weitere Informationen können Sie der Pressemitteilung entnehmen.