NVIDIA A2 Tensor コア GPU

NVIDIA AI をあらゆるサーバーにもたらすエントリ レベル GPU。

インテリジェント エッジのためのエントリ レベル推論

NVIDIA A2 Tensor コア GPU は、エッジにおける NVIDIA AI のために、低電力、小占有面積、ハイ パフォーマンスでエントリ レベル推論を提供します。薄型 PCIe Gen4 カードと 40-60W の低電力で設定可能な TDP (熱設計電力) を特徴とする A2 は、大規模展開であらゆるサーバーに用途の広い推論高速化を提供します。

最大 20 倍の推論性能

AI 推論は、スマートでリアルタイムな体験で消費者の生活の質を高め、エンドポイントに設置された無数のセンサーとカメラからインサイトを得るために展開されます。CPU のみのサーバーと比較した場合、NVIDIA A2 Tensor コア GPU 搭載のエッジおよびエントリ レベルのサーバーは、推論で最大 20 倍のパフォーマンスを発揮し、最新の AI を処理できるよう、あらゆるサーバーを一瞬でアップグレードします。

コンピューター ビジョン
(EfficientDet-DO)

自然言語処理 NLP
(BERT-Large)

テキスト読み上げ TTS
(Tacotron2 + Waveglow)

1 基の NVIDIA A2 Tensor コア GPU とデュアルソケット Xeon Gold 6330N CPU の比較。

インテリジェント エッジのための高度な
IVA パフォーマンス

NVIDIA A2 GPU を搭載したサーバーは、スマート シティ、製造業、小売業などのインテリジェントエッジなどの用途において、最大 1.3 倍のパフォーマンスを発揮します。IVA ワークロードを実行する NVIDIA A2 GPU は、前世代の GPU に比べて価格性能が最大 1.6 倍、エネルギー効率が 10% 向上し、より効率的な展開を提供します。

IVA 性能 (正規化)

IVA 性能 (正規化)

あらゆるサーバーに合わせて最適化

NVIDIA A2 は、5G や産業環境など、スペースや温度の要件によって制約されるエントリ レベル サーバーの推論ワークロードおよびデプロイに合わせて最適化されています。A2 は、TDP 60W から 40W まで、低電力エンベロープで動作する薄型フォーム ファクターを可能にするため、あらゆるサーバーに最適です。 

低電力で構成可能な TDP

低電力で構成可能な TDP

クラウドで、データ センターで、エッジで、業界をリードする AI 推論パフォーマンス

AI 推論は、Web サービス、ヘルスケアとライフ サイエンス、金融サービス、小売、製造、スーパーコンピューティングなど、さまざまな産業で画期的なイノベーションを推進し続けています。A2 の低電力な小型フォーム ファクターと、NVIDIA A100A30 Tensor コア GPU との組み合わせで、クラウド、データ センター、エッジにまたがる、完全な AI 推論ポートフォリオを提供します。A2 と NVIDIA AI 推論ポートフォリオにより、AI アプリケーションのデプロイにおいて、サーバーの数を減らし、電力を低くすることができます。結果的に、コストを大幅に下げつつ、インサイトをより速く得ることができます。

クラウドで、データ センターで、エッジで、業界をリードする AI 推論パフォーマンス

企業利用に対応

NVIDIA AI Enterprise

NVIDIA AI Enterprise は、AI とデータ分析ソフトウェアのエンドツーエンドのクラウドネイティブ スイートです。VMware vSphere が含まれるハイパーバイザーベースの仮想インフラストラクチャにおいて、A2 上で実行できることが認定されています。これにより、ハイブリッド クラウド環境で AI および推論ワークロードを管理、拡張できます。

NVIDIA AI Enterprise の詳細を見る ›

A30 と MIG の組み合わせにより GPU 対応インフラストラクチャの使用率を最大化
A30 と MIG の組み合わせにより GPU 対応インフラストラクチャの使用率を最大化

メインストリームの NVIDIA-Certified Systems

NVIDIA A2 を搭載した NVIDIA-Certified Systems™ は、NVIDIA の OEM パートナーが構築および販売するエンタープライズ データ センター サーバーにおいて、コンピューティングが加速する上、高速かつ安全な NVIDIA ネットワーキングを実現します。このプログラムにより、お客様は、費用対効果が高くスケーラブルな 1 つの高性能インフラストラクチャで、NVIDIA NGC™ カタログ内の多彩な最新 AI アプリケーションに対応したシステムを特定、入手、展開することができます。

NVIDIA-Certified Systems の詳細を見る ›

NVIDIA Ampere アーキテクチャのパワー

NVIDIA Ampere アーキテクチャは、エラスティック コンピューティング時代のために設計されており、現代の企業向けアプリケーションのパワーとなるために必要なパフォーマンスと高速化を提供します。世界最高クラスのパフォーマンスを誇るエラスティックなデータ センターの心臓部をご覧ください。

NVIDIA Ampere アーキテクチャの詳細を見る ›

A30 と MIG の組み合わせにより GPU 対応インフラストラクチャの使用率を最大化

技術仕様

Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 Tensor Core 18 TF | 36 TF¹
Peak FP16 Tensor Core 18 TF | 36 TF¹
Peak INT8 Tensor Core 36 TOPS | 72 TOPS¹
Peak INT4 Tensor Core 72 TOPS | 144 TOPS¹
RT Cores 10
Media engines 1 video encoder
2 video decoders (includes AV1 decode)
GPU memory 16GB GDDR6
GPU memory bandwidth 200GB/s
Interconnect PCIe Gen4 x8
Form factor 1-slot, low-profile PCIe
Max thermal design power (TDP) 40–60W (configurable)
Virtual GPU (vGPU) software support² NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)

NVIDIA Ampere アーキテクチャの詳細

Ampere アーキテクチャの最新テクノロジと GPU の全ラインナップをご覧ください。