Architettura NVIDIA Blackwell

Scalare l'IA generativa fino a miliardi di parametri.

Abbattere le barriere nell'IA generativa

Esplora i progressi rivoluzionari che l'architettura NVIDIA Blackwell introduce nell'IA generativa e nel computing accelerato. Basandosi su generazioni di tecnologie NVIDIA, Blackwell definisce la nuova era dell'IA generativa con prestazioni, efficienza e scalabilità senza pari.

Uno sguardo alle innovazioni tecnologiche

Architettura IA unificata

Blackwell è un'architettura costruita su 208 miliardi di transistor che utilizzano un processo TSMC 4NP specifico per garantire la continua leadership di NVIDIA nel computing accelerato, mentre le sue GPU dispongono dei chip più potenti mai costruiti. I due dadi sono i più grandi possibili, il che garantisce le prestazioni più veloci in termini di comunicazione per le operazioni di IA, massimizzando l'efficienza energetica. Inoltre sono interconnessi tramite un'interfaccia NVHyperfuse chip-to-chip da 10 terabyte al secondo (TB/s), fornendo un'unica vista trasparente della GPU per tutte le cache e le comunicazioni.

Generative AI Engine

Oltre a supportare la tecnologia Transformer Engine che accelera il training con precisioni FP8 e FP16, Blackwell introduce il nuovo Generative AI Engine. Il Generative AI Engine utilizza la tecnologia personalizzata Blackwell Tensor Core per accelerare l'inferenza per l'IA generativa e i modelli linguistici di grandi dimensioni (LLM) con nuovi formati di precisione, inclusi i formati di microscaling definiti dalla community (MX). I formati MXFP4, MXFP6, MXFP8 e MXINT8 di Generative AI Engine mettono il turbo agli LLM moderni, grazie alle prestazioni migliorate dei piccoli modelli a ingombro ridotto e la maggiore produttività rispetto alle precisioni FP8 e FP16.

IA sicura

Gli LLM hanno un potenziale immenso per le aziende. Ottimizzare il fatturato, rilevare informazioni preziose per l'azienda e favorire la creazione di contenuti sono solo alcuni dei vantaggi. Tuttavia, l'adozione degli LLM può essere difficile per le aziende che necessitano di addestrarli su dati privati soggetti alle normative sulla privacy o che includono informazioni proprietarie che comportano rischi laddove dovessero essere esposte. Blackwell include NVIDIA Confidential Computing, che protegge i dati sensibili e i modelli IA da accessi non autorizzati con una solida sicurezza basata su hardware.

Sistema switch NVLink, NVSwitch e NVLink

La capacità di sfruttare tutto il potenziale del calcolo exascale e dei modelli IA da miliardi di parametri scaturisce dalla necessità di una comunicazione rapida e fluida tra tutte le GPU all'interno di un cluster di server. La quinta generazione di NVIDIA® NVLink® è un'interconnessione scale-up che libera prestazioni accelerate per modelli IA con parametri nell'ordine di grandezza dei miliardi di miliardi. 

La quarta generazione di NVIDIA NVSwitch™ consente 130 TB/s di larghezza di banda della GPU in un dominio NVLink a 72 GPU (NVL72) e offre un'efficienza della larghezza di banda 4 volte superiore con il supporto del protocollo NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ FP8. Utilizzando NVSwitch, il sistema NVIDIA NVLink Switch supporta cluster oltre a un singolo server alla stessa interconnessione impressionante di 1,8 TB/s. I cluster multi-server con NVLink scalano le comunicazioni tramite GPU in modo da bilanciare le prestazioni di calcolo, così che NVL72 possa supportare un throughput della GPU 9 volte superiore rispetto a un singolo sistema a otto GPU. 

Motore di decompressione

Data analytics and database workflows have traditionally relied on CPUs for compute. Accelerated data science can dramatically boost the performance of end-to-end analytics, speeding up value generation while reducing cost. Databases, including Apache Spark, play critical roles in handling, processing, and analyzing large volumes of data for data analytics.

Il motore di decompressione Blackwell e la capacità di accedere a enormi quantità di memoria della GPU NVIDIA Grace™ su un link ad alta velocità, 900 gigabyte al secondo (GB/s) di larghezza di banda bidirezionale, accelerano l'intera pipeline di query del database per le massime prestazioni in ambito di data analytics e scienza dei dati. Con il supporto per i più recenti formati di compressione come LZ4, Snappy e Deflate, Blackwell offre prestazioni 20 volte più veloci delle CPU e 7 volte più veloci delle GPU NVIDIA H100 Tensor Core per i benchmark delle query.

Motore RAS (affidabilità, disponibilità e manutenzione)

Blackwell aggiunge la resilienza intelligente con un motore RAS dedicato per l'affidabilità, la disponibilità e la manutenzione per identificare precocemente potenziali guasti e ridurre al minimo i tempi di inattività. Le funzionalità di gestione predittiva basate su NVIDIA AI monitorano continuamente migliaia di punti di dati su hardware e software per verificarne l'integrità generale per prevedere e intercettare le cause di downtime e inefficienza. Questo crea una resilienza intelligente che consente di risparmiare tempo, energia e costi di calcolo.

Il motore NVIDIA RAS fornisce informazioni diagnostiche approfondite in grado di identificare le aree problematiche e pianificare gli interventi di manutenzione. Il motore RAS riduce i tempi di risposta localizzando rapidamente l'origine dei problemi e riduce al minimo i tempi di inattività, facilitando l'efficacia delle risoluzioni.

Inizia

Avvisami quando NVIDIA Blackwell sarà disponibile.