NVIDIA Grace-CPU

Speziell entwickelt, um die größten Computing-Probleme der Welt zu lösen.

Beschleunigung der größten KI-, HPC-, Cloud- und Hyperscale-Workloads

Die Komplexität und Größe von KI-Modellen nimmt rasant zu. Sie verbessern Deep-Recommender-Systeme mit Dutzenden von Terabyte an Daten, verbessern die Konversations-KI mit Hunderten von Milliarden von Parametern und ermöglichen neue wissenschaftliche Entdeckungen. Die Skalierung dieser gewaltigen Modelle erfordert neue Architekturen mit schnellem Zugriff auf einen großen Speicherpool und eine enge Kopplung von CPU und GPU. Die NVIDIA Grace™-CPU bietet die hohe Leistung, Energieeffizienz und Konnektivität mit hoher Bandbreite, die in verschiedenen Konfigurationen für unterschiedliche Rechenzentrumsanforderungen genutzt werden kann. 

 

Erhöhung der Genauigkeit von Empfehlungssystemen mit dem NVIDIA Grace Hopper Superchip.

Erhalten Sie die neuesten Nachrichten über NVIDIA Superchips

Erfahren Sie, wie NVIDIA Grace CPUs die neuesten Großspeicher-Supercomputer antreiben.

GH200 Grace Hopper Superchip

NVIDIA stellt die nächste Generation der Grace Hopper-Superchip-Plattform GH200 vor

Der weltweit erste HBM3e-Prozessor bietet sensationelle Speicher- und Bandbreitenvorteile für das Zeitalter des beschleunigten Computings und der generativen KI.

NVIDIA and Softbank

NVIDIA und SoftBank erfinden 5G-Rechenzentren mit generativer KI neu

Arm-basierter NVIDIA Grace Hopper™ Superchip, BlueField®-3 DPU und Aerial™ SDK ermöglichen eine revolutionäre Architektur für generative KI und 5G/6G-Kommunikation.

 UK Research Alliance, GW4, Arm, HPE

Neue Welle von energieeffizienten Supercomputern

Werfen Sie einen Blick auf die neuesten energieeffizienten Arm-Supercomputer für Klimawissenschaft, medizinische Forschung und mehr, die von der NVIDIA Grace CPU angetrieben werden.

NVIDIA GH200 Grace Hopper Superchips Are in Full Production

NVIDIA GH200 Grace Hopper Superchips sind in voller Produktion

GH200-basierte Systeme gehören zu den über 400 Systemkonfigurationen, die globale Systemhersteller auf den Markt bringen, um die steigende Nachfrage nach generativer KI zu befriedigen.

Creating Accelerated Data Centers Faster With NVIDIA MGX

Schnelleres Erstellen von beschleunigten Rechenzentren mit NVIDIA MGX

Erfahren Sie, wie QCT und Supermicro modulare Designs einsetzen, um schnell und kosteneffizient mehrere Rechenzentrumskonfigurationen für eine Vielzahl von KI-, High-Performance-Computing (HPC)- und 5G-Anwendungen zu erstellen.

Massive Shared GPU Memory for Giant AI Models

Massiver gemeinsam genutzter GPU-Speicher für riesige KI-Modelle

Erfahren Sie, wie NVIDIA Grace Hopper Superchips eine neue Klasse von Supercomputern mit großem Speicher für die aufkommende KI antreiben.

Die Entwicklerkonferenz für das Zeitalter von KI und Metaverse

Konferenz und Schulung 19.–22. September | Keynote 20. September

Besuchen Sie uns diesen September auf einer GTC, die Sie zu Großem inspirieren wird. Dies ist eine Gelegenheit, von Experten und Führungskräften in ihren Bereichen zu erfahren, wie KI Branchen transformiert und die Welt nachhaltig beeinflusst. Das alles findet online vom 19. bis 22. September statt.

  • Einblick in Grace

    • Jonathon Evans, NVIDIA

    In diesem Vortrag erhalten Sie einen Überblick über das NVIDIA Grace™-Server-System-on-a-Chip (SOC).

  • Die Grenzen von KI-Leistung und -Effizienz mit moderner Infrastruktur neu definieren

    • Bhumik Patel, Arm
    • David Lecomber, Arm

    Mit der zunehmenden Einführung von Arm® Neoverse-basierten Computerlösungen in Cloud-, 5G-, HPC- und Edge-Märkten wird auch immer mehr Software verfügbar, die für das Arm-Ökosystem aktiviert und optimiert ist. Wir werden uns den aktuellen Stand der Arm-Bibliotheken und Entwicklertools ansehen, die zur Optimierung von HPC-, KI- und anderen Infrastrukturcodes für die Ausführung auf Arm verfügbar sind.

  • Ein detaillierter Einblick in die neueste HPC-Software

    • Timothy Costa, NVIDIA

    Erhalten Sie einen tiefen Einblick in die neuesten Entwicklungen bei der NVIDIA-Software für HPC-Anwendungen, einschließlich eines umfassenden Überblicks über die Neuerungen bei Programmiermodellen, Compilern, Bibliotheken und Tools. Wir behandeln Themen, die für HPC-Entwickler interessant sind, und zwar in den Bereichen traditionelle HPC-Modellierung und -Simulation, HPC und KI, wissenschaftliche Visualisierung und Quantencomputing.

Referenten auf der GTC22

Sehen Sie sich die Grace-Serie an

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip kombiniert die Grace- und Hopper-Architekturen mithilfe von NVIDIA® NVLink®-C2C, um ein kohärentes CPU- und GPU-Speichermodell für beschleunigte KI- und High-Performance Computing(HPC)-Anwendungen bereitzustellen.

NVIDIA Grace Hopper Superchip
NVIDIA Grace Superchip-CPU

NVIDIA Grace Superchip-CPU

Die NVIDIA Grace Superchip-CPU nutzt die NVLink-C2C-Technologie, um 144 Arm® Neoverse V2-Recheneinheiten und eine Speicherbandbreite von 1 TB/s bereitzustellen.

NVIDIA Grace-Referenzdesigns für moderne Rechenzentrums-Workloads

Systemdesigns für digitale Zwillinge, KI und High Performance Computing.

OVX-digitale Zwillinge und Omniverse

NVIDIA OVX™

für digitale Zwillinge und NVIDIA Omniverse™.

NVIDIA Grace Superchip-CPU
NVIDIA-GPUs
NVIDIA BlueField®-3

HGX-HPC

NVIDIA HGX™

für HPC.

NVIDIA Grace Superchip-CPU
NVIDIA BlueField-3
OEM-definierte Eingabe/Ausgabe (IO)

HGX-KI-Training, -Inferenz und -HPC

NVIDIA HGX

für KI-Training, -Inferenz und -HPC

NVIDIA Grace Hopper Superchip
NVIDIA BlueField-3
OEM-definierte Eingabe/Ausgabe (IO) und NVLink der vierten Generation

Entwickelt zum Lösen komplexer Probleme

Die NVIDIA Grace-CPU nutzt die Flexibilität der Arm®-Architektur, um eine CPU- und Serverarchitektur zu erstellen, die von Grund auf für beschleunigtes Computing entwickelt wurde. Dieses innovative Design bietet eine bis zu 30-mal höhere Gesamtbandbreite im Vergleich zu den schnellsten gegenwärtig verfügbaren Servern und eine bis zu 10-mal höhere Leistung für Anwendungen mit einem Datenvolumen von mehreren Terabytes. NVIDIA Grace wurde entwickelt, um Wissenschaftlern und Forschern die Möglichkeit einzuräumen, die größten Modelle der Welt zu trainieren, um die komplexesten Probleme zu lösen.

Erfahren Sie mehr über die neuesten technischen Innovationen

Beschleunigen Sie CPU-zu-GPU-Verbindungen mit NVLink-C2C

Die Lösung der größten KI- und HPC-Probleme erfordert Speicher mit hoher Kapazität und mit hoher Bandbreite (HBM). Die vierte Generation des NVIDIA NVLink-C2C bietet eine bidirektionale Bandbreite von 900 Gigabyte pro Sekunde (GB/s) zwischen der NVIDIA Grace-CPU und den NVIDIA-GPUs. Die Verbindung stellt einen einheitlichen, cachekohärenten Speicheradressraum bereit, der System- und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert. Diese nahtlose Verbindung mit hoher Bandbreite zwischen CPU und GPUs ist der Schlüssel zur Beschleunigung der komplexesten Probleme der Zukunft.

Profitieren Sie mit LPDDR5X von einem CPU-Speicher mit hoher Bandbreite

NVIDIA Grace ist die erste Server-CPU, die LPDDR5X-Speicher mit der Zuverlässigkeit der Serverklasse durch Mechanismen wie Fehlerkorrekturcode (ECC) nutzt, um den Anforderungen des Rechenzentrums gerecht zu werden, und dabei eine zweimal höhere Speicherbandbreite und eine bis zu zehnmal bessere Energieeffizienz im Vergleich zu aktuell verfügbaren Serverspeichern bietet. Die NVIDIA Grace-CPU integriert ARM Neoverse V2-Recheneinheiten in eine von NVIDIA entwickelte Scalable Coherency Fabric, um eine hohe Leistung in einem vorteilhaften Design zu liefern und so Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Steigern Sie Leistung und Effizienz mit Arm Neoverse V2-Kernen

Auch wenn die parallelen Rechenkapazitäten von GPUs immer weiter fortschreiten, können Workloads nach wie vor durch serielle Aufgaben, die auf der CPU ausgeführt werden, eingeschränkt werden. Eine schnelle und effiziente CPU ist eine entscheidende Komponente des Systemaufbaus, um eine optimale Beschleunigung der Workloads zu ermöglichen. Die NVIDIA Grace-CPU integriert Arm Neoverse V2-Cores, um eine hohe Leistung in einem stromsparenden System zu erzielen und Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Sorgen Sie mit HBM3- und HBM3e-GPU-Speicher für einen Leistungsschub bei generativer KI

Generative KI ist speicher- und rechenintensiv. Der NVIDIA Grace Hopper-Superchip GH200 verwendet 96 GB HBM3-Speicher und bietet damit die 2,5-fache GPU-Speicherbandbreite im Vergleich zur ursprünglichen A100. Der GH200 ist der weltweit erste Prozessor der nächsten Generation, der 141 GB der HBM3e-Speichertechnologie nutzt und im Vergleich zur ursprünglichen A100 eine dreimal höhere Bandbreite bietet. Der HBM-Speicher im NVIDIA Grace Hopper-Superchip wird  über NVLink-C2C mit dem CPU-Speicher kombiniert, um mehr als 600 GB Speicher mit Schnellzugriff für die GPU bereitzustellen. Dies liefert die Speicherkapazität und Bandbreite, die für die weltweit komplexesten Workloads im Bereich des beschleunigten Computings und der generativen KI erforderlich sind.

Lernen Sie unsere Partner kennen

Asus
Atos logo
DELL logo
Fii logo
Gigabyte logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-logo
xfusion-logo

Weitere Ressourcen erforschen

Grace Besondere Inhalte

Erhöhung der Genauigkeit von Empfehlungssystemen mit dem NVIDIA Grace Hopper Superchip.