NVIDIA エンタープライズ リファレンス アーキテクチャ。

エンタープライズ リファレンス アーキテクチャ

拡張可能な AI ファクトリーを構築

NVIDIA エンタープライズ リファレンス アーキテクチャでデータセンターを高性能な AI ファクトリーに変革しましょう。

概要

AI の成功を支える構成要素

NVIDIA エンタープライズ リファレンス アーキテクチャにより、組織は検証済みで再現可能なインフラを使用して、高性能な AI ファクトリーを設計、デプロイ、拡張できるようになります。 これらのブループリントは、認定済みのコンピューティング、高速な East-West ネットワーク、可観測性ツールを組み合わせて、4 ノード クラスターからエンタープライズ規模の環境まで、スケーラブルなパフォーマンスを確保します。

データセンターをインテリジェントな工場に変える

NVIDIA 認定のコンピューティング、ネットワーキング、およびパートナー認定のストレージを使用して、従来のデータ センターを AI ファクトリーに変革しましょう。 迅速なデプロイと反復可能なパフォーマンスを実現する設計。

実証済みの設計 / 検証済みの性能

実世界のデプロイおよび運用実績のある構成に基づいて構築されたエンタープライズ リファレンス アーキテクチャは、計画を簡素化し、スケーラブルな AI インフラの ROI を最大化します。

エンタープライズ リファレンス アーキテクチャ

包括的な製品ファミリーのガイド

データ センターでクラスターをセットアップする手順の包括的セットが利用可能になりました。

インフラストラクチャ

NVIDIA のエンタープライズ リファレンス アーキテクチャは、検証済みのハードウェア構成のほか、CPU-GPU-ネットワーク ノード パターン、配線図、インフラの詳細が含まれます。

*NVIDIA エンタープライズ リファレンス アーキテクチャを基盤とするパートナー設計で「インフラストラクチャ」の推奨をお探しください。

ネットワーク ロジック

『エンタープライズ リファレンス アーキテクチャ向けネットワーク構成および論理アーキテクチャ ロジック ガイド』には、NVIDIA Air 上の VLAN 設計とネットワーク シミュレーションによるノード管理とプロビジョニングの手順が記載されています。

*NVIDIA エンタープライズ リファレンス アーキテクチャを基盤とするパートナー設計で「ネットワーク ロジック」の推奨をお探しください。

ソフトウェア

エンタープライズ リファレンス アーキテクチャ向けソフトウェア リファレンス スタックでは、エンタープライズ リファレンス アーキテクチャ向けのソフトウェア スタックの管理、プロビジョニング、サイジングのプロセスを概説します。 現在のリリースでは、vanilla Kubernetes に焦点を当てており、Run:aiBCM を活用してクラスター、NVIDIA AI Enterprise、vanilla Kubernetes をデプロイしています。

*NVIDIA エンタープライズ リファレンス アーキテクチャを基盤とするパートナー設計で「ソフトウェア」の推奨をお探しください。

可観測性

エンタープライズ リファレンス アーキテクチャの可観測性ガイドでは、Prometheus や Grafana などオープンソースのツールを活用して、クラスター全体の GPU とネットワーク性能を監視します。ダッシュボードは、システムの健全性とワークロードの効率性に関するリアルタイムの指標を提供します。

デプロイ

エンタープライズ リファレンス アーキテクチャ向けデプロイ ガイドは、当社チームがプログラムを構築した社内クラスターの立ち上げ、デプロイ、テスト、検証から学んだインフラのベスト プラクティスをまとめたものです。

ストレージ

NVIDIA 認定ストレージ システム プログラムは、エンタープライズ リファレンス アーキテクチャに対応するよう設計されたストレージ ガイドを作成した一部のパートナーによる補完的な取り組みです。

このユニークなプログラムの詳細については、こちらをクリックしてください。

ユース ケース

あらゆるユース ケースに対応できる設計

実績のあるエンタープライズ リファレンス アーキテクチャで、エージェント型 AI、フィジカル AI、HPC および AI シミュレーション ワークロードを高速化します。

NVIDIA エンタープライズ リファレンス アーキテクチャが、AI ファクトリーを強化

単一の柔軟なプラットフォームで、産業用および知覚 AI、HPC、データ分析、ビジュアル コンピューティング、生成 AI およびエージェント型 AI など、さまざまなエンタープライズ ワークロードを高速化します。これは、インフラの最新化と、ビジネス クリティカルなタスク全体でのパフォーマンス向上を目指す組織に最適です。

NVIDIA RTX PRO サーバーのデプロイにおいて、利用可能な設計は、中規模の生成 AI とビジュアライゼーション ワークロードに最適な、16 ノードおよび 32 ノード構成を中心にしています。これにより、パフォーマンス、拡張性、導入効率のバランスが取れます。 NVIDIA Spectrum-X™ ネットワーキング プラットフォームと組み合わせることで、この構成は、要求の厳しい AI アプリケーション向けに特別に最適化された相互接続パフォーマンスを提供します。

AI に最適化されたパフォーマンス

この高性能なエンタープライズ リファレンス アーキテクチャは、大規模なマルチノード AI トレーニングと推論向けに構築されており、NVIDIA Hopper または Blackwell GPU を搭載した NVIDIA 認定の HGX 8-GPU システムを活用しています。 システムは、4 ノード ユニット (32 GPU) から最大 128 ノード (1024 GPU) まで拡張できます。顧客のニーズに応じて、さらに大規模なクラスターにできる可能性があります。

利用可能な設計ポイントは、32 ノード、64 ノード、128 ノード構成を中心に、NVIDIA Spectrum-X ネットワーキングと柔軟なレール最適化設計によってサポートされています。これにより、さまざまなラック レイアウトに簡単に適応できます。

エクサスケール パフォーマンス

単一のラックでエクサスケール級のコンピューティング能力を備えた、最大規模の基盤モデルおよび言語モデルのトレーニングとデプロイを実現します。 大規模なモデル スループット、マルチユーザー推論、大規模なリアルタイム推論を実現し、AI 駆動型のイノベーションの未来を可能にします。

NVIDIA GB200 NVL72 で利用可能な設計は、4 ラックおよび 8 ラック構成を中心としています。 柔軟なレール最適化ネットワークを中心に構築されたこのアーキテクチャは、さまざまなラック レイアウトやシステム構成をサポートします。

利点

エンタープライズ リファレンス アーキテクチャの戦略的価値

実績のあるパートナー対応の構成で、スケーラブルで高性能な AI インフラストラクチャを実現します。

AI ワークロードのピーク パフォーマンス

トレーニング、ファインチューニング、推論の集中的な需要を満たすために構築されたこれらのアーキテクチャは、マルチノード クラスター全体で完全な GPU 使用率とパフォーマンスの一貫性を確保します。

柔軟なスケーリング、運用の簡素化

最大 128 ノード向けに最適化されたリファレンス設計でインフラを簡単に拡張できます。NVIDIA エンタープライズ AI ファクトリー検証済み設計などのフルスタック ソリューションをサポートするために特別に構築され、スケーラブルで効率的なデプロイを保証します。

複雑性と TCO の削減

デプロイ プロセスと効率的な設計の簡素化、複雑さの軽減と総所有コスト (TCO) の削減、トークン作成までの時間の短縮を実現します。

サポート可能性

特定の標準化された設計パターンに従うことで、設置ごとに一貫した運用が可能になり、頻繁なサポートの必要性が削減され、より迅速な解決が実現します。

パートナー

パフォーマンスを高めるパートナーシップ

私たちは、大手パートナーがエンタープライズ リファレンス アーキテクチャと AI ファクトリー ソリューションを市場に投入する取り組みに協力できることを誇りに思っています。 これらのパートナーによる設計は、設計審査委員会 (DRB) に合格しており、インフラ、ネットワーク ロジック、ソフトウェアのカテゴリの 1 つまたは複数のカテゴリで当社の承認を得るためのガイダンスを提供しています。

関連情報

エンタープライズ リファレンス アーキテクチャの詳細を見る

新しいエンタープライズ リファレンス アーキテクチャで NVIDIA H200 NVL を大規模にデプロイ

NVIDIA H200 NVL が、メモリ強化、高速 NVLink、最適化されたエンタープライズ リファレンス アーキテクチャ構成で AI デプロイを高速化する方法をご覧ください。

最新の NVIDIA GH200 NVL2 Enterprise RA でシステム メモリ管理を簡素化

NVIDIA GH200 NVL2 Enterprise RA が、システム メモリ管理を簡素化し、AI 開発を高速化する方法をご紹介します。

AI ファクトリーの新時代: NVIDIA、エンタープライズ リファレンス アーキテクチャを発表

グローバル企業は、新しいリファレンス アーキテクチャを活用し、高性能で拡張性のある安全なデータ センターを構築できるようになりました。

NVIDIA 認定プログラムがエンタープライズ ストレージに拡大し、より迅速な AI ファクトリーのデプロイを実現

NVIDIA 認定ストレージが、AI 規模のパフォーマンスと統合性を備えたエンタープライズ ストレージ システムを検証することで、より迅速かつ信頼性の高い AI ファクトリーの導入を可能にする方法をご紹介します。

AI ファクトリーの新時代

NVIDIA エンタープライズ リファレンス アーキテクチャが、AI ファクトリーの新時代をどのように可能にしているかをご紹介します。

NVIDIA 認定の最新情報

このグローバル NVIDIA 認定ウェビナーにご参加ください。NVIDIA 認定資格がキャリアを加速し、ビジネスに影響をもたらす方法について、専門家、試験作成者、認定プロフェッショナルからご紹介します。

次のステップ

さっそく始めませんか?

NVIDIA エンタープライズ AI ファクトリーの詳細をご覧ください。

NVIDIA エンタープライズ リファレンス アーキテクチャのホワイト ペーパー

NVIDIA エンタープライズ リファレンス アーキテクチャ (RA) が、高性能な AI インフラの導入に向けたスケーラブルで規範となるブループリントを提供する方法をご紹介します。

サーバー構成 2-8-5-200 仕様

サーバー構成 2-8-9-400 仕様

サーバー構成 2-4-6-400 仕様