NVIDIA Grace-CPU

Speziell entwickelt, um die größten Computing-Probleme der Welt zu lösen.

Die Engine für das Rechenzentrum der nächsten Generation

Da KI-Modelle und ihre Anforderungen immer komplexer werden, werden beschleunigtes Computing und Energieeffizienz immer wichtiger. Die NVIDIA Grace™-CPU ist eine bahnbrechende Arm®-CPU ohne Kompromisse bei Leistung und Effizienz. Sie kann eng mit einer GPU gekoppelt werden, um beschleunigtes Computing zu optimieren, oder als leistungsstarke und effiziente eigenständige CPU eingesetzt werden. Die NVIDIA-Grace-CPU bildet die Grundlage für Rechenzentren der nächsten Generation und kann in verschiedenen Konfigurationen für die unterschiedlichen Anforderungen eines Rechenzentrums verwendet werden.

Werfen Sie einen Blick auf das Grace Lineup

NVIDIA GB200 NVL72

Der NVIDIA GB200 Grace Blackwell Superchip kombiniert zwei NVIDIA Blackwell Tensor Core GPUs und eine Grace CPU und kann auf den GB200 NVL72, ein riesiges, über NVIDIA® NVLink® verbundenes 72-GPU-System, skaliert werden, um 30-mal schnellere Echtzeitinferenz für große Sprachmodelle zu liefern.

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip kombiniert die Grace- und Hopper-Architekturen mithilfe von NVIDIA® NVLink®-C2C, um ein kohärentes CPU- und GPU-Speichermodell für beschleunigte KI- und High-Performance Computing(HPC)-Anwendungen bereitzustellen.

NVIDIA Grace Superchip-CPU

Die NVIDIA Grace Superchip-CPU nutzt die NVLink-C2C-Technologie, um 144 Arm® Neoverse V2-Recheneinheiten und eine Speicherbandbreite von 1 TB/s bereitzustellen.

Erhalten Sie die neuesten Nachrichten über NVIDIA Superchips

Erfahren Sie, wie NVIDIA Grace CPUs die neuesten Großspeicher-Supercomputer antreiben.

NVIDIA GB200 NVL72 für Echtzeit-Inferenz mit Billionen Parametern

Der NVIDIA GB200 NVL72 Grace Blackwell Superchip ist die Architektur für KI der nächsten Generation  und beschleunigt Echtzeit-Sprachmodelle mit Billionen Parametern.

NVIDIA stellt die nächste Generation der Grace Hopper-Superchip-Plattform GH200 vor

Der weltweit erste HBM3e-Prozessor bietet sensationelle Speicher- und Bandbreitenvorteile für das Zeitalter des beschleunigten Computings und der generativen KI.

NVIDIA und SoftBank erfinden 5G-Rechenzentren mit generativer KI neu

Arm-basierter NVIDIA Grace Hopper™ Superchip, BlueField®-3 DPU und Aerial™ SDK ermöglichen eine revolutionäre Architektur für generative KI und 5G/6G-Kommunikation.

Neue Welle von energieeffizienten Supercomputern

Werfen Sie einen Blick auf die neuesten energieeffizienten Arm-Supercomputer für Klimawissenschaft, medizinische Forschung und mehr, die von der NVIDIA Grace CPU angetrieben werden.

NVIDIA GH200 Grace Hopper Superchips sind in voller Produktion

GH200-basierte Systeme gehören zu den über 400 Systemkonfigurationen, die globale Systemhersteller auf den Markt bringen, um die steigende Nachfrage nach generativer KI zu befriedigen.

Schnelleres Erstellen von beschleunigten Rechenzentren mit NVIDIA MGX

Erfahren Sie, wie QCT und Supermicro modulare Designs einsetzen, um schnell und kosteneffizient mehrere Rechenzentrumskonfigurationen für eine Vielzahl von KI-, High-Performance-Computing (HPC)- und 5G-Anwendungen zu erstellen.

Erfahren Sie mehr über die neuesten technischen Innovationen

Beschleunigen Sie CPU-zu-GPU-Verbindungen mit NVLink-C2C

Die Lösung der größten KI- und HPC-Probleme erfordert Speicher mit hoher Kapazität und mit hoher Bandbreite (HBM). Die vierte Generation des NVIDIA NVLink-C2C bietet eine bidirektionale Bandbreite von 900 Gigabyte pro Sekunde (GB/s) zwischen der NVIDIA Grace-CPU und den NVIDIA-GPUs. Die Verbindung stellt einen einheitlichen, cachekohärenten Speicheradressraum bereit, der System- und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert. Diese nahtlose Verbindung mit hoher Bandbreite zwischen CPU und GPUs ist der Schlüssel zur Beschleunigung der komplexesten Probleme der Zukunft.

Profitieren Sie mit LPDDR5X von einem CPU-Speicher mit hoher Bandbreite

NVIDIA Grace ist die erste Server-CPU, die LPDDR5X-Speicher mit der Zuverlässigkeit der Serverklasse durch Mechanismen wie Fehlerkorrekturcode (ECC) nutzt, um den Anforderungen des Rechenzentrums gerecht zu werden, und dabei eine zweimal höhere Speicherbandbreite und eine bis zu zehnmal bessere Energieeffizienz im Vergleich zu aktuell verfügbaren Serverspeichern bietet. Die NVIDIA Grace-CPU integriert ARM Neoverse V2-Recheneinheiten in eine von NVIDIA entwickelte Scalable Coherency Fabric, um eine hohe Leistung in einem vorteilhaften Design zu liefern und so Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Steigern Sie Leistung und Effizienz mit Arm Neoverse V2-Kernen

Auch wenn die parallelen Rechenkapazitäten von GPUs immer weiter fortschreiten, können Workloads nach wie vor durch serielle Aufgaben, die auf der CPU ausgeführt werden, eingeschränkt werden. Eine schnelle und effiziente CPU ist eine entscheidende Komponente des Systemaufbaus, um eine optimale Beschleunigung der Workloads zu ermöglichen. Die NVIDIA Grace-CPU integriert Arm Neoverse V2-Cores, um eine hohe Leistung in einem stromsparenden System zu erzielen und Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Sorgen Sie mit HBM3- und HBM3e-GPU-Speicher für einen Leistungsschub bei generativer KI

Generative KI ist speicher- und rechenintensiv. Der NVIDIA GB200-Superchip verwendet 380 GB HBM-Speicher und bietet damit mehr als die 4,5-fache Bandbreite des GPU-Speichers im Vergleich zum NVIDIA H100 Tensor Core-Grafikprozessor. Der Speicher mit hoher Bandbreite von Grace Blackwell wird über NVLink-C2C mit dem CPU-Speicher kombiniert, um fast 800 GB Speicher mit Schnellzugriff für die GPU bereitzustellen. Dies liefert die Speicherkapazität und Bandbreite, die für die weltweit komplexesten Workloads im Bereich der generativen KI und des beschleunigten Computings erforderlich sind.  

Weitere Ressourcen erforschen

Grace Besondere Inhalte

NVIDIA bietet mit Leitfäden zur Leistungsoptimierung, Entwicklertools und Bibliotheken umfassenden Support für NVIDIA Grace.