Piattaforma di storage a memoria contestuale NVIDIA CMX

Ecosistema di storage IA per data center

Piattaforma di storage a memoria contestuale NVIDIA CMX

Riprogettare lo storage per l'inferenza per la nuova frontiera dell'IA.

Panoramica

Lo storage nativo IA accelera l'inferenza a lungo contesto su larga scala

Lo storage a memoria contestuale NVIDIA® CMX™ è un livello di contesto nativo IA per l'inferenza dell'IA a lungo contesto, multi-turn e agentica. Basato sul processore di storage NVIDIA BlueField®‑4, estende la memoria della GPU con uno strato di contesto condiviso a livello di pod ottimizzato per la cache KV (Key Value) effimera. La piattaforma fornisce un percorso a elevata larghezza di banda che riduce la latenza, i costi e il consumo energetico per i carichi di lavoro di inferenza su larga scala, contribuendo a offrire un throughput più elevato e una migliore efficienza energetica sulle piattaforme NVIDIA Rubin.

NVIDIA BlueField-4 alimenta una nuova classe di storage nativo IA per la nuova frontiera dell'IA

NVIDIA CMX estende la capacità della GPU e consente la condivisione della cache KV a elevata larghezza di banda nei sistemi IA a livello di rack. Offre un throughput superiore e una migliore efficienza energetica per l'inferenza multi-turn e a lungo contesto rispetto allo storage tradizionale.

NVIDIA presenta la piattaforma di storage a memoria contestuale NVIDIA BlueField-4 per la nuova frontiera dell'IA

NVIDIA CMX utilizza NVIDIA BlueField‑4, DOCA™ e Spectrum‑X™ Ethernet per aggiungere uno strato di memoria contestuale a livello di pod che offre un throughput e un'efficienza energetica superiori per l'inferenza IA agentica a lungo contesto.

Prodotti

Infrastruttura di storage nativa IA, integrata dall'inizio alla fine

Dalla memoria contestuale accelerata e il movimento sicuro dei dati ai fabric Ethernet e i framework di inferenza, NVIDIA CMX è il risultato di una co-progettazione estrema del calcolo, della rete, dello storage e del software.

NVIDIA BlueField-4

La piattaforma NVIDIA BlueField accelera NVIDIA CMX offrendo prestazioni, efficienza e innovazione rivoluzionarie. BlueField-4 gestisce le unità a stato solido (SSD) Non-Volatile Memory Express (NVMe), esegue i servizi di storage e scarica l'integrità dei dati e la crittografia per la cache KV con un'alta efficienza energetica. Le sue capacità di calcolo avanzate e gli acceleratori hardware software-defined per la rete, lo storage e la sicurezza creano un'infrastruttura sicura e ad alta efficienza energetica per qualsiasi carico di lavoro.

NVIDIA DOCA Memos

NVIDIA DOCA Memos è un SDK ottimizzato per BlueField-4 e CMX che gestisce e condivide la cache KV tra i nodi di calcolo IA e i nodi di dati CMX, esponendo semplici API key-value e trasformando la memoria flash collegata tramite Ethernet in uno strato di cache a livello di pod. Offre un accesso sicuro e a bassa latenza con integrità e crittografia accelerate da hardware, in modo che le applicazioni rimangano stateless mentre CMX gestisce il routing e il riutilizzo della cache KV su larga scala.

Networking NVIDIA Spectrum-X Ethernet

NVIDIA Spectrum-X Ethernet fornisce il fabric RDMA (Remote Direct Memory Access) ad alte prestazioni per un accesso a bassa latenza e ad alta larghezza di banda alla cache KV nativa IA nel pod. Progettato appositamente per l'IA, Spectrum-X Ethernet utilizza il controllo avanzato della congestione, il routing adattivo e l'RDMA over Converged Ethernet (RoCE) lossless per ridurre al minimo il jitter e la latenza della coda, offrendo prestazioni costanti e ripetibili in ambienti multi-tenant di grandi dimensioni. Ciò consente a CMX di scalare con prestazioni elevate prevedibili, massimizzando il throughput e la reattività per i carichi di lavoro di inferenza multi-turn e agentici.

NVIDIA Dynamo

NVIDIA Dynamo è un framework di servizio di inferenza distribuito che rende CMX e i livelli di storage contestuale sottostanti trasparenti nel pod, instradando le richieste dove già risiede la cache KV. Gestendo il posizionamento e il riutilizzo KV-aware nello strato di servizio, Dynamo aumenta i token al secondo, riduce il time-to-first-token e consente il riutilizzo del contesto a livello di pod per i carichi di lavoro multi-turn e multi-agente.

Vantaggi del prodotto

Memoria contestuale accelerata per l'IA a lungo contesto

NVIDIA CMX introduce un livello di contesto dedicato che migliora il throughput sostenuto e l'efficienza energetica per i carichi di lavoro a lungo contesto e ad alta intensità di cache KV rispetto agli approcci allo storage tradizionali.

Recupera la potenza per l'IA gigascale

Scala i servizi IA con un livello di storage altamente efficiente e ottimizzato per la cache KV che recupera la potenza essenziale, rendendo disponibile una parte maggiore del budget energetico del data center per le GPU anziché per lo storage tradizionale.

Massimizza l'utilizzo, il throughput e la reattività della GPU

Ottimizza i percorsi dei dati e riduci i tempi di stallo riutilizzando la cache KV pre-calcolata dallo strato CMX senza doverla ricalcolare. Ciò aumenta i token al secondo e il throughput per l'inferenza multi-turn e agentica. CMX riduce il time-to-first-token e il time-to-last-token, in modo che le risposte vengano trasmesse in streaming prima e terminino più velocemente, anche con la crescita dei modelli, delle finestre di contesto e della concorrenza.

Consenti una condivisione intelligente ed efficiente della cache KV sul pod IA

Fornisci un accesso ad alta velocità e a livello di pod al contesto nativo IA per consentire agli agenti multi-turn di coordinarsi, condividere lo stato e scalare facilmente con la crescita dei carichi di lavoro, riducendo al contempo la duplicazione della cache KV e la capacità inutilizzata dei nodi.

Estendi la capacità della GPU per l'inferenza a lungo contesto

Offri un'enorme capacità di cache KV per supportare il ragionamento a lungo contesto, i flussi di lavoro multi-agente, i modelli da trilioni di parametri e le finestre di contesto più lunghe per numerosi utenti simultanei.

NVIDIA STX

NVIDIA STX è un'architettura di riferimento modulare per lo storage IA, co-progettata insieme ai principali partner di storage e basata su calcolo, rete e software IA accelerati da NVIDIA. NVIDIA STX fornisce la base per creare un motore di dati universale che accelera il ciclo di vita completo dell'IA, dall'addestramento e l'analisi all'inferenza per agenti in tempo reale.

Ecosistema

Partner per lo storage a memoria contestuale NVIDIA CMX

Risorse

Elementi costitutivi per l'era del contesto

Lanciata la piattaforma di storage NVIDIA BlueField-4 STX con un'ampia adozione del settore

NVIDIA STX è un design di riferimento per lo storage IA modulare, sviluppato in collaborazione con i principali fornitori e basato su software di calcolo accelerato, di rete e IA NVIDIA. Scopri come alimenta la piattaforma di storage NVIDIA BlueField‑4 STX che potenzia l'IA agentica e l'infrastruttura di dati IA.

NVIDIA presenta la piattaforma di storage a memoria contestuale basata su NVIDIA BlueField-4

Una nuova classe di infrastrutture di storage native IA utilizza BlueField per eliminare i rallentamenti della GPU durante l'inferenza, migliorare l'efficienza energetica e abilitare la condivisione di KV ad alta velocità, consentendo così di scalare l'infrastruttura di inferenza.

Panoramica della soluzione della piattaforma di storage a memoria contestuale NVIDIA CMX

NVIDIA CMX offre un percorso ottimizzato e a elevata larghezza di banda che riduce la latenza, i costi e il consumo energetico rispetto agli approcci allo storage general-purpose, contribuendo a offrire un throughput fino a 5 volte superiore e un'efficienza energetica fino a 5 volte superiore.

Inizia

Collabora con gli esperti NVIDIA

Contatta il team di vendita enterprise NVIDIA o il partner giusto nel programma NVIDIA Partner Network (NPN) per iniziare.

Hai bisogno di aiuto per scegliere il partner o il prodotto giusto?

Parla con uno specialista NVIDIA delle tue esigenze aziendali.

Aggiornati con le notizie di NVIDIA

Iscriviti per ricevere le ultime notizie, gli aggiornamenti e altro da NVIDIA.