NVIDIA エンタープライズ リファレンス アーキテクチャでデータセンターを高性能な AI ファクトリーに変革しましょう。
概要
NVIDIA エンタープライズ リファレンス アーキテクチャ (Enterprise RA) により、組織は検証済みで再現可能なインフラを使用して、高性能な AI ファクトリーを設計、デプロイ、拡張できるようになります。 これらの設計は、認定済みのコンピューティング、高速な東西ネットワークおよび南北ネットワーク、可観測性ツール、ソフトウェアを組み合わせて、4 ノード クラスターからエンタープライズ規模の環境まで、スケーラブルなパフォーマンスを確保します。
エンタープライズ リファレンス アーキテクチャ
データ センターでクラスターをセットアップする手順の包括的セットが利用可能になりました。
ユース ケース
実績のある NVIDIA エンタープライズ リファレンス アーキテクチャとグローバル パートナーの NVIDIA-Certified Systems により、エージェント型 AI、フィジカル AI、高性能コンピューティング (HPC)、AI シミュレーション ワークロードを高速化します。エンタープライズ AI ファクトリーをデプロイするためのプライマリ インフラ クラスター構成の概要を以下に示します。
NVIDIA RTX PRO™ AI ファクトリー構成は、生成 AI、エージェント型 AI、データ分析、ビジュアル コンピューティング、エンジニアリング シミュレーションなど、幅広いエンタープライズ ワークロード向けに設計されています。デプロイは、16 ノードおよび 32 ノードの設計ポイントを中心に最適化され、パフォーマンス、拡張性、デプロイ効率の理想的なバランスを実現します。エンタープライズ AI、シミュレーション、ビジュアル コンピューティング全体にわたる汎用的なワークロード高速化を目的に設計された NVIDIA RTX PRO サーバーは、PCIe 環境向けに最適化されており、スペース、電力、冷却の制約があるデータ センターに最適です。 最新の AI ワークロード向けに構築されたこれらの製品は、エージェント型と大規模言語モデル (LLM) 推論において効率的なパフォーマンスを発揮します。
高性能な NVIDIA HGX™ AI ファクトリー構成は、NVIDIA HGX システムを活用し、大規模なマルチノード AI のトレーニングと推論向けに構築されています。 32、64、128 ノードの設計ポイントで利用可能で、NVIDIA Spectrum-X™ ネットワークによってサポートされているこのアーキテクチャは、柔軟なレール最適化設計を採用しており、高スループットと低遅延のパフォーマンスを実現しながら、多様なラック レイアウト全体で効率的な統合を可能にします。最も要求の厳しいワークロードを実行する AI パワー ユーザーに画期的なパフォーマンスを提供し、大規模モデルのトレーニングとファインチューニングを可能にし、推論を劇的に高速化します。 次世代の精度と超高速相互接続により、このソリューションは最大 15 倍のトークン スループットを実現します。
NVIDIA NVL72 AI ファクトリー構成は、1 兆パラメーター モデルのトレーニングとデプロイを目的に設計されており、単一ラック内でエクサスケールの演算能力を実現します。 大規模なモデル スループット、マルチユーザー推論、リアルタイム推論向けに構築され、次世代の AI 駆動型のイノベーションの未来を可能にします。 デプロイ設計ポイントは、4 ラックおよび 8 ラック構成を中心にしています。 柔軟なレール最適化ネットワークを基盤に構築されたこのアーキテクチャは、多様なラック レイアウトとシステム設計に適応しながら、高帯域幅と低遅延のパフォーマンスを実現します。 このプラットフォームは、業界をリードするエネルギー効率に優れた AI ファクトリー出力を実現し、第 5 世代 NVIDIA NVLink™、FP4 Tensor コア、高度なサーマル イノベーションを搭載しています。
利点
実績のあるパートナー対応の構成で、スケーラブルで高性能な AI インフラストラクチャを実現します。
マルチノード クラスター全体で完全な GPU 利用率とパフォーマンスの一貫性を確保するアーキテクチャにより、AI 推論、ファインチューニング、トレーニングの集中的な要求に対応します。
インフラを簡単に拡張し、最大 128 ノードに対してスケーラブルで効率的なデプロイを実現します。 NVIDIA のソフトウェア エコシステムを活用した NVIDIA Enterprise AI ファクトリー検証済み設計により、フルスタック ソリューションの基盤を構築します。
デプロイ プロセスと効率的な設計の簡素化、複雑さの軽減と総所有コスト (TCO) の軽減、価値実現までの時間を短縮します。
特定の標準化された設計パターンに従い、設置ごとに一貫した運用が可能になり、頻繁なサポートの必要性が削減され、より迅速な解決が実現します。
パートナー
私たちは、大手パートナーがエンタープライズ リファレンス アーキテクチャと AI ファクトリー ソリューションを市場に投入する取り組みに協力できることを誇りに思っています。 これらのパートナーの承認済み設計は、当社の設計審査委員会に合格しており、インフラ、ネットワーク ロジック、ソフトウェアの 1 つ以上のカテゴリーで当社の承認を得るためのガイダンスを提供しています。
Palantir Sovereign AI OS リファレンス アーキテクチャは、NVIDIA Enterprise RA を基盤にしており、グローバル システム パートナーとの間で、Palantir の完全なソフトウェア スイートを NVIDIA AI インフラ上で実行できるようテストおよび認定を受けています。 このソブリン AI アーキテクチャは、遅延の影響を受けやすいワークフロー、データ主権要件、地理的な分散を重視するお客様にとって重要です。 このアーキテクチャは、企業が自社のデータ、AI モデル、アプリケーションを完全に制御できるようにします。
関連情報
NVIDIA は、生成 AI とエージェント型ワークフローを企業全体で拡張させる統合 AI ファクトリーを構築し、セキュリティ、パフォーマンス、そして一貫性を確保しています。 このプラットフォームは、イノベーションの高速化、ソフトウェアおよびハードウェア エンジニアリングの効率化、サプライチェーンの運用の最適化を行う数百の AI エージェントをサポート。計画時間を 95% 以上短縮し、数十年分に相当するエンジニアリング作業をわずか 1 年で実現します。