NVIDIA DGX™ A100 には、最先端データ センター アクセラレーターである NVIDIA A100 Tensor コア GPU が 8 基搭載されています。Tensor Float 32 (TF32) 精度により、コードを一切変更することなく、前世代より 10 倍の AI パフォーマンスの改善を実現します。一般的な NLP モデルに構造化スパース性を活用することで、さらに 2 倍のパフォーマンス向上がもたらされます。第 3 世代 NVIDIA® NVLink®、第 2 世代 NVIDIA NVSwitch™、NVIDIA Mellanox® InfiniBand により、すべての GPU 間で超高帯域幅かつ低レイテンシの接続を可能にします。これにより、複数の DGX A100 システムを使用して膨大な数十億規模のパラメーターを有するモデルを大規模にトレーニングして、最先端の高精度を実現することができます。また、オープンソース ツールキットである NVIDIA NeMo™ を使用すると、開発者は DGX 対応の対話型 AI モデルを、わずか数行のコードで構築、トレーニング、微調整できます。