GPU NVIDIA A2 Tensor Core

GPU entry-level che porta NVIDIA AI su qualsiasi server.

Inferenza entry-level versatile

La GPU NVIDIA A2 Tensor Core fornisce inferenza entry-level a basso consumo, ingombro ridotto e prestazioni elevate per NVIDIA AI sull'Edge. Dotato di una scheda PCIe Gen4 a basso profilo e capacità TDP configurabile a basso consumo, da 40-60 W, l'A2 offre un'accelerazione dell'inferenza versatile a qualsiasi server per l'implementazione su larga scala.

Prestazioni di inferenza fino a 20 volte superiori

L'inferenza con IA viene implementata per migliorare la vita dei consumatori con esperienze intelligenti e in tempo reale e per ottenere informazioni da trilioni di sensori e telecamere sugli end-point. Rispetto ai server basati su sola CPU, i server Edge ed entry-level con GPU NVIDIA A2 Tensor Core offrono prestazioni di inferenza fino a 20 volte superiori, rendendo subito qualsiasi server in grado di gestire l'IA moderna.

Computer Vision
(EfficientDet-DO)

Elaborazione del linguaggio naturale
(BERT-Large)

Sintesi vocale
(Tacotron2 + Waveglow)

Comparisons of one NVIDIA A2 Tensor Core GPU versus a dual-socket Xeon Gold 6330N CPU

Prestazioni IVA più elevate per
Edge intelligente

I server dotati di GPU NVIDIA A2 offrono prestazioni fino a 1,3 volte superiori negli scenari di utilizzo intelligenti sull'Edge, tra cui smart city, produzione e vendita al dettaglio. Le GPU NVIDIA A2 che eseguono carichi di lavoro IVA offrono implementazioni più efficienti con un rapporto prezzo-prestazioni fino a 1,6 volte migliore e un'efficienza energetica superiore del 10% rispetto alle precedenti generazioni di GPU.

Prestazioni IVA (normalizzate)

Prestazioni IVA (normalizzate)

Ottimizzato per qualsiasi server

La NVIDIA A2 è ottimizzata per carichi di lavoro di inferenza e distribuzione su server entry-level con vincoli di spazio e termici, come ambienti 5G Edge industriali. La A2 offre un fattore di forma a basso profilo che opera in un involucro a basso consumo, da TDP di 60 W fino a 40 W, il che la rende ideale per qualsiasi server.  

Consumi inferiori e TDP configurabile

Consumi inferiori e TDP configurabile

Prestazioni di inferenza con IA leader nel cloud, nel data center e sull'Edge

L'inferenza dell'IA continua a guidare l'innovazione rivoluzionaria in tutti i settori, tra cui Internet per consumatori, sanità e scienze della vita, servizi finanziari, vendita al dettaglio, produzione e supercomputing. Il fattore di forma ridotto e i bassi consumi energetici della A2 abbinati alle GPU NVIDIA A100 e A30 Tensor Core offrono una gamma completa per l'inferenza con IA su cloud, data center ed Edge. La A2 e la gamma per inferenza NVIDIA AI garantiscono l'implementazione delle applicazioni IA con meno server e meno energia, per informazioni più rapide e costi sostanzialmente inferiori.

Prestazioni di inferenza con IA leader nel cloud, nel data center e sull'Edge

Pronta per l'uso a livello aziendale

NVIDIA AI Enterprise

NVIDIA AI Enterprise, una suite cloud-native end-to-end di software di intelligenza artificiale e analisi dei dati, è certificata per l'esecuzione su A2 in un'infrastruttura virtuale basata su hypervisor con VMware vSphere. Ciò consente la gestione e il ridimensionamento dei carichi di lavoro di IA e inferenza in un ambiente cloud ibrido.

Scopri di più su NVIDIA AI Enterprise ›

La A30 con MIG massimizza l'utilizzo dell'infrastruttura GPU accelerata.
La A30 con MIG massimizza l'utilizzo dell'infrastruttura GPU accelerata.

NVIDIA-Certified Systems mainstream

Gli NVIDIA-Certified Systems™ con NVIDIA A2, riuniscono accelerazione di calcolo e rete NVIDIA sicura ad alta velocità nei server del data center aziendale, e sono costruiti e venduti dai partner OEM di NVIDIA. Questo programma consente ai clienti di identificare, acquisire e distribuire sistemi per applicazioni di intelligenza artificiale moderne tradizionali e diversificate dal catalogo NVIDIA NGC™ su un'unica infrastruttura ad alte prestazioni, economica e scalabile.

Scopri di più su NVIDIA-Certified Systems ›

Basata su architettura NVIDIA Ampere

L'architettura NVIDIA Ampere è progettata per l'era del computing elastico e offre le prestazioni e l'accelerazione necessarie per alimentare le moderne applicazioni aziendali. Esplora il cuore dei data center elastici con le più alte prestazioni del mondo.

Scopri di più sull'architettura NVIDIA Ampere ›

La A30 con MIG massimizza l'utilizzo dell'infrastruttura GPU accelerata.

Specifiche tecniche

Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 Tensor Core 18 TF | 36 TF¹
Peak FP16 Tensor Core 18 TF | 36 TF¹
Peak INT8 Tensor Core 36 TOPS | 72 TOPS¹
Peak INT4 Tensor Core 72 TOPS | 144 TOPS¹
RT Cores 10
Media engines 1 video encoder
2 video decoders (includes AV1 decode)
GPU memory 16GB GDDR6
GPU memory bandwidth 200GB/s
Interconnect PCIe Gen4 x8
Form factor 1-slot, low-profile PCIe
Max thermal design power (TDP) 40–60W (configurable)
Virtual GPU (vGPU) software support² NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)

Dentro l'architettura NVIDIA Ampere

Esplora le tecnologie all'avanguardia dell'architettura e la gamma completa di GPU.