NVIDIA Base Command Manager

Soluzioni per infrastrutture IA

Griglie IA

Scala le applicazioni native IA orchestrando i carichi di lavoro su un'infrastruttura IA geograficamente distribuita.

Panoramica

Infrastruttura distribuita per l'IA generativa, per agenti e fisica

Le moderne applicazioni IA sono in tempo reale, iperpersonalizzate e ad alta intensità di dati e servono milioni di utenti, agenti e macchine in tutto il mondo. Gli operatori di telecomunicazioni sono in una posizione unica per soddisfare questa domanda trasformando la propria infrastruttura esistente in reti IA, portando l'IA più vicino a dove viene utilizzata l'intelligenza.

Una griglia IA è una piattaforma di infrastruttura IA distribuita, interconnessa e orchestrata che esegue ogni carico di lavoro dove offre le prestazioni migliori. Collega le fabbriche IA con gli hub regionali e i siti edge, in modo che dati, modelli e agenti possano spostarsi in modo sicuro su siti distribuiti che operano come sistema unificato. 

NVIDIA fornisce lo stack di calcolo accelerato, di rete e software che alimenta le griglie IA, aiutando gli operatori a sfruttare rapidamente la capacità di IA distribuita e ad alimentare nuove esperienze native IA

NVIDIA e i leader di telecomunicazioni creano griglie IA per ottimizzare l'inferenza sulle reti distribuite

Con il crescere delle applicazioni native IA fino a raggiungere più utenti, agenti e dispositivi, la rete di telecomunicazioni sta diventando la nuova frontiera per la distribuzione dell'IA.

Crea e distribuisci facilmente le griglie IA con NVIDIA

Il design di riferimento delle griglie IA NVIDIA offre agli operatori un modo unificato per creare, distribuire e orchestrare l'IA su siti distribuiti.

Vantaggi

Esegui ogni carico di lavoro IA nella posizione ottimale

Latenza prevedibile

Mantieni i servizi nativi IA reattivi eseguendo l'inferenza sull'infrastruttura più vicina a utenti, agenti e macchine. Ciò aiuta gli operatori a soddisfare i rigorosi accordi sul livello di servizio (SLA) per le esperienze di voce, visione e controllo in tempo reale.

Migliore economia dei token

Esegui carichi di lavoro ad alta intensità di token su nodi con il calcolo e la rete più convenienti, riducendo il volume di dati sulla rete e i costi di uscita senza sacrificare la qualità del servizio.

Maggiore utilizzo e resilienza

Tratta molti siti distribuiti come un singolo pool di capacità IA per aumentare l'utilizzo delle GPU e ridurre le risorse disperse. Se un sito si guasta, i carichi di lavoro vengono automaticamente ribilanciati su tutta la rete per mantenere la continuità del servizio.

Concorrenza su larga scala

Esegui servizi nativi IA su molti siti distribuiti per gestire picchi massicci di utenti, applicazioni e agenti concorrenti, mantenendo una qualità dell'esperienza e un costo coerenti.

Prodotti

Gli elementi costitutivi per una griglia IA

NVIDIA offre una piattaforma unificata per dotare i siti distribuiti di un'infrastruttura IA completa, trasformandoli in griglie IA connesse e orchestrate.

GPU ad alte prestazioni

Nelle fabbriche IA centralizzate, i sistemi su scala rack come NVIDIA GB300 NVL72 offrono un throughput estremo per l'addestramento, l'ottimizzazione e i carichi di lavoro di ragionamento su larga scala. Nei siti di rete distribuiti, le GPU NVIDIA RTX PRO™ 6000 Blackwell Server Edition forniscono una piattaforma di inferenza versatile e conveniente che può adattarsi alle impronte delle aziende di telecomunicazioni esistenti con un retrofit minimo.

Ethernet NVIDIA Spectrum-X

Attraverso il routing adattivo (RDMA) su Converged Ethernet (RoCE) e il controllo ottimizzato della congestione, NVIDIA Spectrum-X™ Ethernet accelera le prestazioni di storage di quasi il 50% e riduce i colli di bottiglia di comunicazione. Permette alle aziende di scalare in modo efficiente le applicazioni IA razionalizzando l'utilizzo del sistema.

DPU NVIDIA BlueField

Le DPU NVIDIA BlueField scaricano, accelerano e isolano i servizi infrastrutturali nelle fabbriche IA e negli ambienti distribuiti a livello globale, consentendo a più tenant e carichi di lavoro di condividere un'infrastruttura comune ad alte prestazioni in modo sicuro ed efficiente. Gli operatori di telecomunicazioni integrano BlueField per migliorare la sicurezza e ottimizzare il throughput e l'efficienza dell'IA.

TensorRT LLM

NVIDIA TensorRT™ LLM è una libreria open source per l'inferenza di modelli linguistici di grandi dimensioni (LLM) ad alte prestazioni e in tempo reale su GPU NVIDIA. Con un runtime Python modulare, un sistema nativo PyTorch per l'autore e un'API di produzione stabile, è ottimizzato per massimizzare il throughput, ridurre al minimo i costi e offrire esperienze utente rapide.

NVIDIA Dynamo

NVIDIA Dynamo è un framework di inferenza distribuito per la distribuzione di modelli in ambienti multi-nodo su scala di fabbriche IA. Semplifica il servizio distribuito disaggregando l'inferenza, ottimizzando il routing ed estendendo la memoria attraverso il caching dei dati a livelli di storage convenienti.

Microservizi NIM di NVIDIA

NVIDIA NIM™ è un insieme di microservizi di inferenza facili da usare per accelerare la distribuzione di modelli di base e mantenere i dati sicuri. NVIDIA NIM è ottimizzato per l'inferenza su scala aziendale.

Casi d'uso

Intelligenza distribuita in azione

Scopri come le griglie IA basate su NVIDIA consentono una nuova classe di applicazioni native IA che richiedono un accesso all'intelligenza in tempo reale e conveniente su larga scala.

IA fisica

L'IA fisica consente a robot, veicoli, telecamere e sistemi IoT di percepire, ragionare e agire nel mondo fisico. Le griglie IA consentono a NVIDIA Metropolis di eseguire l'IA visiva su scala urbana vicino alle telecamere per l'analisi in tempo reale, mentre i robot autonomi scaricano la pianificazione e il ragionamento più pesanti sui siti vicini quando il calcolo integrato non è sufficiente.

IA in tempo reale

I servizi IA interattivi come gli assistenti di IA conversazionale dipendono da una latenza e da un controllo del jitter ridotti per essere naturali e reattivi. Le reti IA eseguono questi carichi di lavoro su nodi fisicamente vicini ai dati, preservando un margine di latenza e instradando ogni richiesta alle migliori risorse disponibili, anche durante i picchi di domanda o le interruzioni parziali.

Iperpersonalizzazione

Gli assistenti IA personalizzati, le esperienze multimediali e sportive e le applicazioni aziendali devono adattare le risposte in tempo reale per migliaia o milioni di sessioni simultanee. Su una griglia IA, gli operatori possono memorizzare nella cache il contesto dell'utente o del tenant presso i nodi regionali ed eseguire la logica e la generazione di personalizzazione più vicino agli utenti, migliorando la latenza di coda e mantenendo sostenibile l'economia della personalizzazione sempre attiva.

Funzioni di rete native IA

I carichi di lavoro di rete come RAN, gestione del traffico e ottimizzazione del piano utente si affidano sempre più all'IA per analizzare i flussi e prendere decisioni in tempo reale. Le griglie IA eseguono queste funzioni di rete native IA sulla stessa infrastruttura distribuita delle applicazioni, migliorando l'utilizzo e consentendo un routing più intelligente, l'applicazione delle politiche e la qualità dell'esperienza su tutta la rete.

Prossimi passi

È tutto pronto per iniziare?

Crea griglie IA su larga scala con il design di riferimento delle griglie IA NVIDIA, fornendo uno stack hardware e software unificato che trasforma i siti distribuiti in infrastrutture IA connesse e orchestrate.

Contattaci

Fai domande o richiedi maggiori informazioni. I nostri esperti sono qui per aiutarti.

Ricevi le ultime notizie da NVIDIA

Registrati per ricevere le ultime notizie di NVIDIA in materia di IA e telecomunicazioni.