AI インフラストラクチャ向けのユニバーサル システム
NVIDIA DGX™ A100 は、あらゆる AI ワークフローに対応するユニバーサル システムで、前例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5 ペタフロップス AI システムです。DGX A100 は NVIDIA A100 Tensor コア GPU を備えており、企業はトレーニング、推論、分析を、展開を簡単にでき、NVIDIA AI エキスパートへの直接アクセスが含まれる AI インフラストラクチャに統合できます。
NVIDIA DGX A100 は、分析からトレーニング、推論に至るまで、あらゆる AI インフラストラクチャのためのユニバーサル システムです。6U のフォームファクタに 5 ペタフロップスの AI パフォーマンスを詰め込み、従来のインフラストラクチャのサイロを、すべての AI ワークフローに対応する単一のプラットフォームに置き換えることで、計算処理密度の新しい水準を確立します。
NVIDIA DGXperts は、お客様による DGX 投資への価値を最大化できるよう過去 10 年間にわたり豊富な経験を積んできた、20,000 人を超える AI に精通した専門家から成る世界的なチームです。
NVIDIA DGX A100 は、NVIDIA A100 Tensor コア GPU を搭載した世界初のシステムです。8 基の A100 GPU と最大 640GB の GPU メモリの統合。、これまでにないアクセラレーションを提供し、NVIDIA CUDA-X™ソフトウェアとエンドツーエンドのNVIDIA データ センターソリューション スタック用に完全に最適化されています。
NVIDIA DGX A100 は、ピーク時の双方向帯域幅が 500 ギガバイト/秒 (GB/s) の Mellanox ネットワーキングを内蔵しています。これは、スケーラブル AI インフラストラクチャのリファレンス アーキテクチャとなるNVIDIA DGX SuperPOD™ などの大規模 AI クラスターの基本構成要素に DGX A100 を据えるための数ある機能の中の 1 つです。
NVIDIA AI Starter Kit は、世界最高の AI プラットフォームから最適化されたソフトウェアとツール、コンサルティング サービスに至るまで、チームに必要なすべてを提供します。そのため、AI 導入戦略をすぐに始めることができます。AI プラットフォームの構築で時間とお金を無駄にしません。プラグインと電源投入を 1 日で、定義済みのユースケースを 1 週間で実現し、すぐにモデルの生産を開始できます。
NVIDIA DGX A100 システムの詳細を見る
DLRM トレーニング
最大規模のモデルで AI トレーニングのスループットが最大 3 倍に向上
DLRM on HugeCTR framework, precision = FP16 | 1x DGX A100 640GB batch size = 48 | 2x DGX A100 320GB batch size = 32 | 1x DGX-2 (16x V100 32GB) batch size = 32. Speedups Normalized to Number of GPUs.
RNN-T 推論: 単一のストリーム
AI 推論のスループットが最大 1.25 倍に向上
MLPerf 0.7 RNN-T measured with (1/7) MIG slices. Framework: TensorRT 7.2, dataset = LibriSpeech, precision = FP16.
ビッグ データ分析のベンチマーク
CPU より最大 83 倍のスループット、DGX A100 320GB より最大 2 倍のスループット
Big data analytics benchmark | 30 analytical retail queries, ETL, ML, NLP on 10TB dataset | CPU: 19x Intel Xeon Gold 6252 2.10 GHz, Hadoop | 16x DGX-1 (8x V100 32GB each), RAPIDS/Dask | 12x DGX A100 320GB and 6x DGX A100 640GB, RAPIDS/Dask/BlazingSQL. Speedups Normalized to Number of GPUs
1 8 倍の NVIDIA A100 GPU と最大 640GB の合計 GPU メモリ 12 NVLinks/GPU、毎秒 600GB の GPU-to-GPU 双方向帯域幅
2 6 基の NVIDIA NVSWITCH 双方向の帯域幅: 4.8 TB/秒前世代と比較して 2 倍
3 10 Mellanox ConnectX-6 200/Gb ネットワーク インターフェイス ピーク時の双方向の帯域幅: 500 GB/秒
4 2 基の 64 コア AMD CPU と 2 TB システム メモリ 3.2 倍のコアで負荷の高い AI ジョブに対応
5 30TB GEN4 NVME SSD 50GB/秒のピーク帯域幅、2 倍速 Gen3 NVME SSD
新しい NVIDIA DGX A100 の詳細をご覧ください。
NVIDIA A100 Tensor コア GPU による前例のない高速化をもって、世界で最も困難な計算に AI、データ分析、HPC (ハイ パフォーマンス コンピューティング) で挑むことができます。第 3 世代の NVIDIA Tensor コアにより性能を大幅に向上できるようになり、A100 GPU を効率的に数千までスケール アップできます。また、マルチインスタンス GPU を使用すれば、あらゆるサイズのワークフローを加速するために 7 つの小さな専用インスタンスとして割り当てることができます。
MIG を利用することで、DGX A100 の 8 つの A100 Gpu を最大 56 個の GPU インスタンスとして構成し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。これにより管理者は、複数のワークフローに対してサービス品質 (QoS) が保証された GPU のサイズを適切に設定することができます。
DGX A100 の第 3 世代の NVIDIA® NVLink™ は、GPU から GPU への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。これは PCIe Gen4 のほぼ 10 倍に相当します。DGX A100 には、前世代と比較して 2 倍の速度を可能にする次世代の NVIDIA NVSwitch™ も搭載されています。
DGX A100 は NVIDIA ConnectX-7 InfiniBand と VPI (Infiniband または Ethernet) アダプターを備え、それぞれが毎秒 200 ギガビット (Gb/s) で実行され、大規模 AI ワークロードのために高速ファブリックを構築します。
DGX A100 には、AI チューニングされた基本オペレーティング システム、必要となるすべてのシステム ソフトウェア、GPU 対応アプリケーション、トレーニング済みモデル、NGC™ の各種機能など、テスト済みで最適化された DGX ソフトウェア スタックが統合されています。
DGX A100 は、あらゆる主要なハードウェアとソフトウェア コンポーネントを保護するための自動暗号化ドライブ、署名付きソフトウェア コンテナー、安全な管理と監視といったマルチレイヤー アプローチを採用することで、AI 導入において最も信頼性の高いセキュリティ体制を実現します。
NVIDIA DGX システムの企業レベルのサポートをご覧ください。
リーダーシップクラスの AI インフラストラクチャ
NVIDIA プライバシー ポリシー