NVIDIA Base Command Manager

AI インフラ ソリューション

AI グリッド

地理的に分散された AI インフラ全体でワークロードを調整することで、AI ネイティブ アプリケーションを拡張します。

概要

生成 AI、エージェント型 AI、フィジカル AI 向けの分散インフラ

最新の AI アプリケーションは、リアルタイムで、きめ細やかにパーソナライズされ、データ集約型であり、世界中で数百万人のユーザー、エージェント、マシンにサービスを提供しています。通信事業者は、既存のインフラを AI グリッドへと転換し、AI をインテリジェンスが活用される場所に近づけることで、この需要に応える独自の立場にあります。

AI グリッドは、分散され、相互接続され、オーケストレーションされた AI インフラ プラットフォームであり、各ワークロードを最高のパフォーマンスで実行します。 AIファクトリーを地域の複数のハブやエッジサイトと接続することで、統合システムとして運用されるデータ、モデル、エージェントを分散サイト間で安全に移動できるようにします。

NVIDIA は、AI グリッドを支えるアクセラレーテッド コンピューティング、ネットワーク、ソフトウェア スタックを提供し、オペレーターが分散 AI の能力を迅速に活用し、新しい AI ネイティブの体験を強化できるように支援しています。

NVIDIA と通信業界のリーダーが、分散ネットワークで推論を最適化する AI グリッドを構築

AI ネイティブ アプリケーションがより多くのユーザー、エージェント、デバイスにスケールするにつれ、通信ネットワークは、AI を普及させるための新たなフロンティアとなりつつあります。

NVIDIA で AI グリッドの構築とデプロイが容易に

NVIDIA AI グリッド リファレンス デザインは、分散サイト全体で AI を構築、デプロイ、オーケストレーションする統合された方法を運用者に提供します。

利点

すべての AI ワークロードを最適な場所で実行

予測可能な遅延

ユーザー、エージェント、マシンに最も近いインフラで推論を実行することで、AI ネイティブ サービスの応答性を維持します。 これにより、オペレーターはリアルタイムの音声、ビジョン、制御体験に関する厳しいサービス レベル契約 (SLA) を満たすことができます。

トークン経済性の向上

最もコスト パフォーマンスに優れたコンピューティングとネットワークを使用して、トークンを大量に処理するワークロードをノードで実行し、ネットワーク上のデータ量を削減し、サービス品質を犠牲にすることなく送信コストを削減します。

利用率と耐障害性の向上

多くの分散サイトを単一の AI 処理能力のプールとして扱い、GPU 利用率を向上させ、孤立したリソースを削減します。 サイトに障害が発生した場合、ワークロードはグリッド全体で自動的にリバランスされ、サービスの継続性を維持します。

大規模な同時実行

多くの分散サイトで AI ネイティブ サービスを実行し、品質とコストの一貫性を維持しながら、大量の同時ユーザー、アプリケーション、エージェントの急増に対処します。

製品

AI グリッドの構成要素

NVIDIA は、フルスタックの AI インフラを分散サイトに装備し、接続され、オーケストレーションされた AI グリッドに変換する統合プラットフォームを提供しています。

高性能な GPU

一元化された AI ファクトリーでは、NVIDIA GB300 NVL72 などのラックスケール システムは、トレーニング、ファインチューニング、大規模な推論ワークロード向けに優れたスループットを提供します。 分散グリッド サイト全体で、NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU は、最小限の改修で既存の通信事業者の設備に適合可能な汎用性とコスト効率に優れた推論プラットフォームを提供します。

NVIDIA Spectrum-X Ethernet

リモート ダイレクト メモリ アクセス (RDMA) Over Converged Ethernet (RoCE) の適応型ルーティングと最適化された輻塞制御を通じて、NVIDIA Spectrum-X™ イーサネットは、ストレージ パフォーマンスを 50% 近く高速化し、通信のボトルネックを軽減します。これにより、企業は AI システムの使用率を最大化しながら AI アプリケーションを効率的に拡張できるようになります。

NVIDIA BlueField DPU

NVIDIA® BlueField® DPU は、AI ファクトリーや世界中に分散した環境全体でインフラ サービスのオフロード、高速化、分離を行い、複数のテナントとワークロードが共通の高性能インフラを安全かつ効率的に共有できるようにします。通信事業者は、BlueField を統合し、セキュリティを強化し、AI のスループットと効率性を最適化しています。

TensorRT LLM

NVIDIA TensorRT™ LLM は、NVIDIA GPU 上で高性能なリアルタイムの大規模言語モデル (LLM) 推論を実現するオープンソース ライブラリです。 モジュール型 Python ランタイム、PyTorch ネイティブのオーサリング、安定した本番環境 API を活用することで、スループットを最大化し、コストを最小化し、高速なユーザー体験を提供できるように最適化されています。

NVIDIA Dynamo

NVIDIA Dynamo は、AI ファクトリー規模でマルチノード環境にモデルをデプロイするための分散推論サービング フレームワークです。 推論を分離し、ルーティングを最適化し、コスト効率の高いストレージ層へのデータ キャッシュを通じてメモリを拡張することで、分散サービングを効率化します。

NVIDIA NIM マイクロサービス

NVIDIA NIM™ は基盤モデルのデプロイを高速化し、データを安全に保護するための使いやすい推論マイクロサービスのセットです。 NVIDIA NIM は、企業規模の推論向けに最適化されています。

ユース ケース

分散インテリジェンスの実践

NVIDIA 搭載の AI グリッドが、大規模なインテリジェンスへのリアルタイムかつコスト効率の高いアクセスを求める新しいクラスの AI ネイティブ アプリケーションをどのように実現しているかをご覧ください。

フィジカル AI

フィジカル AI は、ロボット、車両、カメラ、IoT システムが現実世界で認識し、推論し、行動できるようにします。 AI グリッドにより、NVIDIA Metropolis はカメラの近くで都市規模のビジョン AI を運用し、リアルタイム分析を実現します。一方、組み込みコンピューティングが不足する場合には、自律ロボットがより負荷の高い計画や推論処理を近隣のサイトに委ねます。

リアルタイム AI

対話型 AI アシスタントなどのインタラクティブ AI サービスは、自然な反応と応答性を維持するために、厳しいエンドツーエンドの遅延とジッタ制御に依存しています。 AI グリッドは、データに物理的に近いノードでこれらのワークロードを実行し、遅延の余裕を確保します。需要の急増や部分的な停止時でも、各リクエストを最善の利用可能なリソースにルーティングします。

ハイパー パーソナライゼーション

パーソナライズされた AI アシスタント、メディアおよびスポーツ体験、エンタープライズ アプリケーションは、数千または数百万件の同時セッションに対する応答をリアルタイムで適応させる必要があります。 AI グリッドでは、オペレーターは地域ノードでユーザーまたはテナントのコンテキストをキャッシュし、ユーザーに近い場所でパーソナライゼーションのロジックと生成を実行できます。これにより、後続の遅延を改善しながら、常時接続のパーソナライゼーションの経済性を持続可能にします。

AI ネイティブ ネットワーク機能

RAN、トラフィック ステアリング、ユーザー プレーンの最適化などのネットワーク ワークロードは、フローを分析し、リアルタイムの意思決定を下すために、AI にますます依存しています。AI グリッドは、アプリケーションと同じ分散インフラでこれらの AI ネイティブ ネットワーク機能を実行し、ネットワーク全体で利用率を向上させ、よりスマートなルーティング、ポリシーの実施、体験の質を実現します。

次のステップ

さっそく始めませんか?

NVIDIA AI Grid リファレンス デザインで大規模な AI グリッドを構築します。分散したサイトをつなぎ、統制された AI インフラへと変革する統合ハードウェアとソフトウェアのスタックを提供します。

お問い合わせ

ご質問および詳細情報のリクエストを受け付けています。当社の担当者がお手伝いいたします。

NVIDIA の最新情報を受け取る

NVIDIA の AI および通信に関する最新ニュースを受け取るにはご登録ください。