NVIDIA MGX

NVIDIA MGX

モジュール式サーバー設計により、あらゆるデータ センターにアクセラレーテッド コンピューティングを導入します。

概要

AI ファクトリーへの最短かつ最も柔軟な道筋

AI ワークロードは、従来のサーバーの限界を超える要求を課します。 NVIDIA MGX™ は、OEM、ODM、エコシステム パートナーがアクセラレーテッド システムをより迅速に構築できるように、モジュール式のリファレンス アーキテクチャを提供します。 シングルノード サーバーからラック スケール AI ファクトリーまで、NVIDIA MGX は、エンジニアリング コストの削減、市場投入までの期間短縮、エコシステム全体でのマルチ世代間互換性を実現します。

NVIDIA 800 VDC と統合エネルギー ストレージのアーキテクチャ上の必須事項

データ センターの変革を促す要因と、高電力密度 AI ファクトリ向けに、グリッドからチップへ電力を分配するための、今後のビジョンをご紹介します。

NVIDIA Vera CPU

NVIDIA Vera

NVIDIA Vera CPU はデータ移動とエージェント型リーズニングのために設計されており、AI システム向けにNVIDIA GPU とシームレスに連携したり、独立して動作し、分析、クラウド、オーケストレーション、ストレージ ワークロードを駆動します。.

MGX は、コンピューティングとネットワーキング サーバー、冷却、電力、コネクタなどを統合することで、エコシステム全体に共通のラック スケール設計を実現します。

構成

MGX 構成を見る

MGX により、OEM および ODM パートナーは開発リソースを節約し市場投入時間を短縮しながら、様々なユースケースに合わせたソリューションを構築することが可能になります。このモジュラーリファレンスアーキテクチャは、NVIDIA Grace™、x86、その他の Arm® CPU サーバーなど、多様な GPU、CPU、DPU の構成に対応し、企業データセンターにおける様々なワークロードを加速します。

GPU

NVIDIA Blackwell、Rubin など、ラックスケールおよび PCIe GPU ソリューションをサポートします。

CPU

NVIDIA Grace や Vera などの Arm CPUに加え、x86 およびその他の Arm ベース CPU の両方をサポートします。

ネットワーク

NVIDIA Spectrum™、Quantum InfiniBand、BlueField®、その他のネットワーキング ソリューションをサポートします。

利点

技術的なブレークスルーを探る

モジュール式リファレンス設計

MGX は、シングルノード サーバーからラック スケール ソリューションまで、100 以上のモジュラー設計の組み合わせを提供しています。

マルチ世代

今日の設計への投資が、将来の GPU、CPU、DPU、ネットワーキング製品と互換性を保てるようにします。

オープン エコシステム

Open Compute Project (OCP) 向け NVIDIA MGX ラック設計とリファレンス ファイルは、Arm と x86 サーバーの両方をサポートするエコシステム採用を可能にします。

市場投入までの期間を短縮

MGX は、パートナーによる、さらに迅速なデプロイ、リスクの低減、大規模なAI ファクトリーの構築を支援します。

標準への準拠

MGX は、PCIe、OCP、Electronic Industries Alliance (EIA) のラック仕様などのオープン標準をサポートしており、エンタープライズやクラウド データ センターに迅速に統合できます。

NVIDIA ソフトウェア スタックのフル活用

MGX システムは、AI、ハイ パーフォーマンス コンピューティング、デジタル ツイン向けの NVIDIA ソフトウェア スタックをフルに活用することで高い性能を発揮し、パートナーが多様なソリューションを提供できるようにします。

NVIDIA RTX PRO サーバー

NVIDIA RTX PRO Server で、AI ファクトリーのパフォーマンスと効率を向上

NVIDIA RTX PRO™ サーバーは、企業 AI ファクトリーに優れたパフォーマンスとエネルギー効率を提供します。NVIDIA BlueField-3 DPU や ConnectX®-8 SuperNIC などの高度な NVIDIA ネットワーキングのサポートにより、RTX PRO サーバーは、エージェント型 AI アプリケーションや産業 AI アプリケーション向けのシームレスなパフォーマンスとスケーラビリティを実現します。

製品

MGX が AI ファクトリー向け AI インフラストラクチャを可能に

AI ファクトリー

AI ファクトリーは、コンピューティングの新しい単位であり、AI ライフサイクル全体を通じて、大量の生データをインテリジェンスに変換するために設計されたデータセンターです。 AI パフォーマンスを拡張するには、CPU、GPU、ネットワーキング、メモリ、データ センター エコシステム全体がシームレスに連携するフルスタック ソリューションが必要です。 NVIDIA MGX は、OEM、ODM、エコシステム パートナーが、シングルノードからラック スケールまで、さまざまなソリューションを効率的に実現できるように、モジュール型のリファレンス アーキテクチャを提供します。 サーバーとラックのビルディング ブロックを標準化することで、MGX は、エンジニアリングの労力を削減し、市場投入までの時間を短縮します。また、ROI を向上させ、世代間の互換性を確保し、あらゆる場所の AI ファクトリーを強化します。

NVIDIA 800 VDC アーキテクチャ

将来の AI ファクトリは、パフォーマンスと効率性を最大限に高めるためにメガワット (MW) 級のラックへの対応が必要になります。そのため、電力インフラストラクチャは、規模、場所、実現可能性を決定づける主因となります。 このレベルのパフォーマンスには、段階的な改善だけでなく、根本的なアーキテクチャの転換が必要です。 NVIDIA 800 VDC アーキテクチャは、高電圧 800 VDC 配電システムにマルチタイムスケールのエネルギー貯蔵を統合した構成を持ち、将来のコンピューティングニーズに向けた基盤を構築します。

最新情報

NVIDIA MGX の最新情報を読む

NVIDIA MGX による AI ファクトリーのモジュール式基盤の構築

NVIDIA MGX を活用することで、パートナーはビルディング ブロックのアプローチによって、複数のシステムを設計でき、開発コストの削減と市場投入までの期間短縮が実現できます。

NVIDIA 800 VDC アーキテクチャが次世代 AI ファクトリーを強化

NVIDIA は、MW 級、あるいはそれを超える IT ラックをサポートするため、800 VDC データ センター インフラストラクチャへの移行を主導しており、2027 年からの開始を予定しています。

効率的でスケーラブルな AI ファクトリー向け 800 VDC エコシステムの構築

生成 AI は、従来のデータセンターを AI ファクトリーへと変容させました。それに伴い、効率性、拡張性、膨大なエネルギー需要を中心とした完全な再設計を必要としています。

パートナー

MGX System パートナーの紹介

次のステップ

NVIDIA の最新情報を受け取る

NVIDIA から最新情報、お知らせなどをお届けします。