CPU NVIDIA Grace

Progettato appositamente per risolvere i problemi di calcolo più grandi del mondo.

Accelerare i più grandi carichi di lavoro IA, HPC, cloud e hyperscale

I modelli IA stanno esplodendo in termini di complessità e dimensioni, mentre potenziano i sistemi recommender avanzati che contengono decine di terabyte di dati, migliorano l'IA conversazionale con centinaia di miliardi di parametri e consentono nuove scoperte scientifiche. La scalabilità di modelli così voluminosi e complessi richiede nuove architetture con accesso rapido a un grande pool di memoria, oltre all'utilizzo congiunto di CPU e GPU. La CPU NVIDIA Grace™ offre elevate prestazioni, efficienza energetica e connettività a elevata larghezza di banda e può essere utilizzata in configurazioni diverse per diverse esigenze del data center. 

 

La super potenza per la massima precisione nei sistemi recommender con NVIDIA Grace Hopper Superchip.

Ottieni le ultime notizie sui superchip NVIDIA

Scoprite come le CPU NVIDIA Grace stanno alimentando i più recenti supercomputer a memoria estesa.

GH200 Grace Hopper Superchip

NVIDIA presenta la piattaforma GH200 Grace Hopper Superchip di nuova generazione

Il primo processore HBM3e al mondo offre memoria e larghezza di banda all'avanguardia per l'era del computing accelerato e dell'IA generativa.

NVIDIA and Softbank

NVIDIA e SoftBank reinventano i data center 5G con l'intelligenza artificiale generativa

Il superchip NVIDIA Grace Hopper™ basato su Arm, la DPU BlueField®-3 e l'SDK Aerial™ sono alla base di un'architettura rivoluzionaria per l'intelligenza artificiale generativa e le comunicazioni 5G/6G.

 UK Research Alliance, GW4, Arm, HPE

Nuova ondata di supercomputer ad alta efficienza energetica

Date un'occhiata ai più recenti supercomputer Arm ad alta efficienza energetica per la climatologia, la ricerca medica e altro ancora, alimentati dalla CPU NVIDIA Grace.

NVIDIA GH200 Grace Hopper Superchips Are in Full Production

I superchip NVIDIA GH200 Grace Hopper sono in piena produzione

I sistemi con GH200 si aggiungono alle oltre 400 configurazioni di sistema che i produttori di sistemi globali stanno lanciando per soddisfare la crescente domanda di IA generativa.

Creating Accelerated Data Centers Faster With NVIDIA MGX

Creazione di data center accelerati più rapidamente con NVIDIA MGX

Scoprite come QCT e Supermicro stanno adottando progetti modulari per realizzare in modo rapido e conveniente molteplici configurazioni di data center per un'ampia gamma di applicazioni AI, HPC (High Performance Computing) e 5G.

Massive Shared GPU Memory for Giant AI Models

Memoria massiccia condivisa su GPU per modelli di intelligenza artificiale giganti

Scoprite come i superchip NVIDIA Grace Hopper stanno alimentando una nuova classe di supercomputer a grande memoria per l'IA emergente.

La conferenza per sviluppatori nell'era dell'IA e del metaverso

Conferenza e formazione dal 19 al 22 settembre |  Keynote il 20 settembre

Seguici alla GTC a settembre e trova l'ispirazione per la tua prossima grande idea. Questa è un'opportunità da non perdere per imparare da esperti e leader come l'IA sta trasformando i settori industriali e cambiando il mondo. La conferenza sarà online dal 19 al 22 settembre.

  • Inside Grace

    • Jonathon Evans, NVIDIA

    Questa discussione offre una panoramica del sistema server su chip (SOC) NVIDIA Grace™.

  • Superare la frontiera delle prestazioni e dell'efficienza IA con l'infrastruttura moderna

    • Bhumik Patel, Arm
    • David Lecomber, Arm

    Con la maggiore diffusione delle soluzioni di calcolo basate su Arm® Neoverse nei mercati cloud, 5G, HPC ed Edge, cresce anche la disponibilità di software abilitato e ottimizzato per l'ecosistema Arm. Verrà esaminato lo stato attuale delle librerie Arm e degli strumenti di sviluppo disponibili per ottimizzare i codici HPC, IA e altri codici di infrastruttura per l'esecuzione su Arm.

  • Un approfondimento sull'ultimo software HPC

    • Timothy Costa, NVIDIA

    Approfondisci gli ultimi sviluppi del software NVIDIA per applicazioni HPC, con un approfondimento alle novità di modelli di programmazione, compilatori, librerie e strumenti. Parleremo di argomenti di interesse per gli sviluppatori HPC, mirati alla modellazione e simulazione HPC tradizionale, HPC+IA, visualizzazione scientifica e calcolo quantistico.

Relatori della GTC22

Dai uno sguardo alla linea Grace

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip combina le architetture Grace e Hopper utilizzando NVIDIA® NVLink®-C2C per fornire un modello di memoria coerente CPU+GPU per applicazioni IA e HPC accelerate.

NVIDIA Grace Hopper Superchip
NVIDIA Grace CPU Superchip

NVIDIA Grace CPU Superchip

La CPU NVIDIA Grace Superchip utilizza la tecnologia NVLink-C2C per fornire 144 Arm® Neoverse V2 e 1 TB/s di banda di memoria.

Scopri il design di riferimento Grace per carichi di lavoro moderni nel data center

Annunciamo i design di sistemi per digital twin, IA e calcolo ad alte prestazioni.

Digital twin OVX e Omniverse

NVIDIA OVX™

per digital twin e NVIDIA Omniverse™.

NVIDIA Grace CPU Superchip
GPU NVIDIA
NVIDIA BlueField®-3

HGX-HPC

NVIDIA HGX™

per HPC.

NVIDIA Grace CPU Superchip
NVIDIA BlueField-3
Input/output (IO) OEM defined

Training, inferenza e HPC HGX-AI

NVIDIA HGX

per training con IA, inferenza e HPC.

NVIDIA Grace Hopper Superchip
NVIDIA BlueField-3
Input/output (IO) definito dall'OEM/NVLink di quarta generazione

Progettata per risolvere problemi complessi

La CPU NVIDIA Grace sfrutta la flessibilità dell'architettura Arm® per creare un'architettura di CPU e server progettata da zero per il computing accelerato. Questo design innovativo offrirà una larghezza di banda aggregata fino a 30 volte superiore rispetto ai server più veloci di oggi e prestazioni fino a 10 volte superiori per le applicazioni che eseguono terabyte di dati. NVIDIA Grace è stata progettata per consentire a scienziati e ricercatori di addestrare i modelli più voluminosi del mondo e risolvere i problemi più complessi.

Scopri di più sulle ultime innovazioni in ambito tecnico

Accelera le connessioni CPU-GPU con NVLink-C2C

Per risolvere principali problemi di IA e HPC è necessaria una memoria ad alta capacità e a elevata larghezza di banda (HBM). NVIDIA NVLink-C2C di quarta generazione offre una banda bidirezionale a 900 gigabyte al secondo (GB/s) tra CPU NVIDIA Grace e GPU NVIDIA. La connessione garantisce uno spazio di indirizzi per la memoria unificato e con cache coerente, che abbina la memoria di sistema con la memoria HBM della GPU per una programmabilità semplificata. Questa connessione coerente e a elevata larghezza di banda tra CPU e GPU è fondamentale per accelerare la risoluzione di problemi più complessi in futuro.

Sfrutta la memoria CPU a elevata larghezza di banda con LPDDR5X

La NVIDIA Grace è la prima CPU server a sfruttare la memoria LPDDR5x con affidabilità di classe server attraverso meccanismi come il codice di correzione errori (Error-Correcting Code, ECC) per soddisfare le esigenze del data center, offrendo al contempo una larghezza di banda della memoria 2 volte superiore e una maggiore efficienza energetica fino a 10 volte superiore rispetto alla memoria server di oggi. La CPU NVIDIA Grace integra i core Arm Neoverse V2 di nuova generazione con uno Scalable Coherency Fabric progettato da NVIDIA per offrire prestazioni elevate in un design efficiente dal punto di vista energetico, il che aiuta scienziati e ricercatori a portare a termine i loro progetti.

Aumenta le prestazioni e l'efficienza con i core Arm Neoverse V2

Nonostante i progressi continui delle funzionalità di calcolo parallelo delle GPU, i carichi di lavoro possono ancora risultare confinati in attività seriali eseguite sulla CPU. Una CPU veloce ed efficiente è un componente fondamentale della progettazione del sistema per consentire la massima accelerazione del carico di lavoro. La CPU NVIDIA Grace integra i core Arm Neoverse V2 di nuova generazione per offrire prestazioni elevate in un design efficiente dal punto di vista energetico, il che aiuta scienziati e ricercatori a portare a termine i loro progetti.

La super potenza per l'IA generativa con la memoria della GPU HBM3 e HBM3e

L'IA generativa richiede un'intensa attività di calcolo e memoria. NVIDIA GH200 Grace Hopper Superchip utilizza 96 GB di memoria HBM3, offrendo oltre 2,5 volte la larghezza di banda della memoria della GPU A100 originale. La nuova generazione di GH200 è il primo processore al mondo a utilizzare 141 GB di tecnologia di memoria HBM3e e offre una larghezza di banda tre volte superiore rispetto all'A100 originale. HBM in NVIDIA Grace Hopper è combinata con la memoria della CPU su NVLink-C2C per fornire oltre 600 GB di memoria ad accesso rapido alla GPU, in modo da offrire la capacità di memoria e la larghezza di banda necessarie per gestire il computing accelerato e l'IA generativa dei carichi di lavoro più complessi al mondo.

Incontra i nostri partner

Asus
Atos logo
DELL logo
Fii logo
Gigabyte logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-logo
xfusion-logo

Esplora altre risorse

Contenuto in evidenza di Grace

La super potenza per la massima precisione nei sistemi recommender con NVIDIA Grace Hopper Superchip.