Die Vielseitige Einsteiger-GPU, die NVIDIA-KI auf jeden Server bringt.
Die NVIDIA A2 Tensor-Core-GPU bietet Inferenz für Einsteiger mit geringem Stromverbrauch, geringem Platzbedarf und hoher Leistung für intelligente Videoanalysen (IVA) mit NVIDIA-KI in der Edge. Mit einer Low-Profile-PCIe Gen4-Karte und einstellbarem Energieverbrauch (TDP, Thermal Design Power) von 40 bis 60 W bietet die A2 allen Servern vielseitige Inferenzbeschleunigung für die Bereitstellung in großem Maßstab.
KI-Inferenz wird eingesetzt, um das Leben von Verbrauchern durch intelligente Echtzeit-Erlebnisse zu verbessern und durch Billionen von Endpunktsensoren und Kameras Erkenntnisse zu gewinnen. Im Vergleich zu reinen CPU-Servern bieten Edge- und Einstiegsklasse-Server mit NVIDIA A2 Tensor-Core-GPUs bis zu 20-mal mehr Inferenzleistung und befähigen jeden Server sofort, moderne KI zu bewältigen.
Comparisons of one NVIDIA A2 Tensor Core GPU versus a dual-socket Xeon Gold 6330N CPU
Systemkonfiguration: CPU: HPE DL380 Gen10 Plus, 2S Xeon Gold 6330N @2,2 GHz, 512 GB DDR4 NLP: BERT-Large (Sequenzlänge: 384, SQuAD: v1.1) | TensorRT 8.2, Präzision: INT8, BS:1 (GPU) | OpenVINO 2021.4, Präzision: INT8, BS:1 (CPU) Text-to-Speech: Tacotron2 + Waveglow End-to-End Pipeline (Eingangslänge: 128) | PyTorch 1.9, Präzision: FP16, BS:1 (GPU) | PyTorch 1.9, Präzision: FP32, BS:1 (CPU) Computer Vision: EfficientDet-D0 (COCO, 512x512) | TensorRT 8.2, Präzision: INT8, BS:8 (GPU) | OpenVINO 2021.4, Präzision: INT8, BS:8 (CPU)
Server, die mit NVIDIA A2-GPUs ausgestattet sind, bieten bis zu 1,3-mal mehr Leistung bei intelligenten Edge-Anwendungsfällen, einschließlich Smart Cities, Fertigung und Einzelhandel. NVIDIA A2-GPUs, auf denen IVA-Workloads ausgeführt werden, bieten effizientere Bereitstellungen mit bis zu 1,6-mal besserem Preis-Leistungs-Verhältnis und 10 Prozent besserer Energieeffizienz als frühere GPU-Generationen.
Systemkonfiguration: [Supermicro SYS-1029GQ-TRT, 2S Xeon Gold 6240 @2,6 GHz, 512 GB DDR4, 1x NVIDIA A2 ODER 1x NVIDIA T4] | Gemessene Leistung mit Deepstream 5.1. Netzwerke: ShuffleNet-v2 (224 x 224), MobileNet-v2 (224 x 224). | Pipeline bietet End-to-End-Leistung bei Videoaufnahme und -dekodierung, Vorverarbeitung, Batchverarbeitung, Inferenz und Nachbearbeitung.
Die NVIDIA A2 GPU ist für Inferenz-Workloads und Bereitstellungen in Einstiegsklasse-Servern optimiert, die durch Platz- und Wärmeanforderungen wie 5G-Edge- und Industrieumgebungen eingeschränkt sind. A2 bietet einen kompakten Formfaktor, der mit geringem Energieverbrauch betrieben wird, mit einer TDP von lediglich 60 W bis zu 40 W, was A2 ideal für jeden Server macht.
KI-Inferenz ist weiterhin die Triebfeder bahnbrechender Innovationen in allen Branchen, darunter Consumer Internet, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, Einzelhandel, Fertigung und Supercomputing. Mit kleinem Formfaktor und dem geringem Stromverbrauch bietet die A2 in Kombination mit den NVIDIA A100 und A30 Tensor-Core-GPUs ein komplettes KI-Inferenzportfolio für Cloud, Rechenzentrum und Edge. A2 und das NVIDIA KI-Inferenzportfolio stellen sicher, dass KI-Anwendungen mit weniger Servern und weniger Strom bereitgestellt werden können, was zu schnelleren Erkenntnissen bei wesentlich niedrigeren Kosten führt.
NVIDIA AI Enterprise, eine Cloud-native End-to-End-Suite aus KI- und Datenanalysesoftware, ist zertifiziert, um auf der A2 in hypervisorbasierter virtueller Infrastruktur mit VMware vSphere ausgeführt zu werden. Dies ermöglicht die Verwaltung und Skalierung von KI- und Inferenz-Workloads in einer Hybrid-Cloud-Umgebung.
Erfahren Sie mehr über NVIDIA AI Enterprise ›
NVIDIA-zertifizierte Systeme™ mit NVIDIA A2 vereinen Computing-Beschleunigung und sichere NVIDIA-Hochgeschwindigkeits-Netzwerke in Enterprise-Rechenzentrumsservern, die von NVIDIA-OEM-Partnern entwickelt und vertrieben werden. Dieses Programm ermöglicht es Kunden, Systeme für traditionelle und vielfältige moderne KI-Anwendungen aus dem NVIDIA NGC™-Katalog auf einer einzigen leistungsstarken, kostengünstigen und skalierbaren Infrastruktur zu identifizieren, zu erwerben und bereitzustellen.
Erfahren Sie mehr über NVIDIA-zertifizierte Systeme ›
Die NVIDIA Ampere-Architektur wurde für das Zeitalter elastischen Computings entwickelt und bietet die nötige Leistung und Beschleunigung für moderne Unternehmensanwendungen. Lernen Sie das Herzstück der leistungsstärksten, elastischen Rechenzentren kennen.
Weitere Informationen zur NVIDIA Ampere-Architektur ›
1 Mit geringer Dichte 2 Unterstützt in zukünftiger vGPU-Version
Entdecken Sie die neuesten Technologien der Architektur und ihre gesamte Palette an GPUs.