業界で実績のある AI スケールアップ パフォーマンスとラック スケール アーキテクチャを備えたセミカスタム AI インフラ。
NVIDIA NVLink™ Fusion は、ハイパースケーラーとカスタム ASIC 設計者がカスタム CPU と XPU を、世界をリードする NVLink スケールアップ インターコネクトと OCP MGX ラックスケール サーバー アーキテクチャと統合できるようにするラックスケール AI インフラ プラットフォームです。 実環境で実証済みの NVIDIA AI テクノロジ スタックと、実績あるラック スケール設計およびエコシステムを活用することで、市場への参入の迅速化、開発コストの削減とデプロイ リスクの低減、投資収益率を高めるパフォーマンスの向上が実現します。
NVLink Fusion モジュール テクノロジー ポートフォリオには、NVIDIA GPU、NVIDIA Vera™ CPU、NVLink スケールアップ ネットワーク、コパッケージド オプティクス (CPO) スイッチ、NVIDIA ConnectX® SuperNIC、BlueField® DPU、Mission Control ソフトウェアが含まれます。 包括的なエコシステムには、ASIC 設計者、CPU と IP のプロバイダー、OEM/ODM、コンポーネント サプライヤーが含まれ、そのすべてがカスタム AI シリコンの迅速なデプロイを可能にするために設計されています。
利点
AI ファクトリーの可能性を最大限に引き出すには、すべてのアクセラレーター間の迅速かつシームレスな通信が必要です。 NVIDIA NVLink 6 は、72 基の XPU を、XPU あたり 3.6 TB/秒で全対全接続することで、AI パフォーマンスと投資収益率を向上させます。
確立された NVLink Fusion サプライヤー エコシステムは、OCP MGX アーキテクチャを基盤に、ラックとシャーシから電力供給と冷却システムに至るまでのフルラック スケールのデプロイに必要なすべてのコンポーネントを提供し、新しいラック設計に伴う開発コストとデプロイ リスクを排除します。
NVIDIA の実環境で実証済みのテクノロジ スタックと ASIC 設計者、CPU および IP プロバイダー、OEM/ODM のエコシステムを活用することで、ハイパースケーラーは市場投入までの期間と収益までの期間をともに短縮できます。
ハイパースケーラーはすでに完全な NVIDIA ラック ソリューションを導入しているため、NVLink Fusion を使用することで、共通のラック設計を標準化しながら異種シリコン製品の提供を可能にし、AI ファクトリーの導入を加速し、管理が簡素化されます。
プラットフォーム
NVIDIA NVLink 6 と NVLink Switch チップは、単一の 72 アクセラレーター NVLink ドメイン (NVL72) で 260 TB/s の帯域幅を実現し、NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ FP8 サポートにより、4 倍の帯域幅効率を実現します。
NVIDIA NVLink-C2C は、業界最高水準の NVLink 技術をチップ間インターコネクトに拡張します。これにより、NVIDIA パートナーとの協業によりチップレットを通じて構築される新しいクラスの統合製品の開発が可能になり、NVIDIA GPU や CPU がカスタム シリコンと高帯域幅なコヒーレント接続を持てるようになります。
採用した企業
NVIDIA NVLink Fusion が、複雑な AI モデルの増大する要求に対応する方法をご覧ください。