地理的に分散された AI インフラ全体でワークロードを調整することで、AI ネイティブ アプリケーションを拡張します。
概要
最新の AI アプリケーションは、リアルタイムで、きめ細やかにパーソナライズされ、データ集約型であり、世界中で数百万人のユーザー、エージェント、マシンにサービスを提供しています。通信事業者は、既存のインフラを AI グリッドへと転換し、AI をインテリジェンスが活用される場所に近づけることで、この需要に応える独自の立場にあります。
AI グリッドは、分散され、相互接続され、オーケストレーションされた AI インフラ プラットフォームであり、各ワークロードを最高のパフォーマンスで実行します。 AIファクトリーを地域の複数のハブやエッジサイトと接続することで、統合システムとして運用されるデータ、モデル、エージェントを分散サイト間で安全に移動できるようにします。
NVIDIA は、AI グリッドを支えるアクセラレーテッド コンピューティング、ネットワーク、ソフトウェア スタックを提供し、オペレーターが分散 AI の能力を迅速に活用し、新しい AI ネイティブの体験を強化できるように支援しています。
ユーザー、エージェント、マシンに最も近いインフラで推論を実行することで、AI ネイティブ サービスの応答性を維持します。 これにより、オペレーターはリアルタイムの音声、ビジョン、制御体験に関する厳しいサービス レベル契約 (SLA) を満たすことができます。
最もコスト パフォーマンスに優れたコンピューティングとネットワークを使用して、トークンを大量に処理するワークロードをノードで実行し、ネットワーク上のデータ量を削減し、サービス品質を犠牲にすることなく送信コストを削減します。
多くの分散サイトを単一の AI 処理能力のプールとして扱い、GPU 利用率を向上させ、孤立したリソースを削減します。 サイトに障害が発生した場合、ワークロードはグリッド全体で自動的にリバランスされ、サービスの継続性を維持します。
多くの分散サイトで AI ネイティブ サービスを実行し、品質とコストの一貫性を維持しながら、大量の同時ユーザー、アプリケーション、エージェントの急増に対処します。
NVIDIA は、フルスタックの AI インフラを分散サイトに装備し、接続され、オーケストレーションされた AI グリッドに変換する統合プラットフォームを提供しています。
NVIDIA 搭載の AI グリッドが、大規模なインテリジェンスへのリアルタイムかつコスト効率の高いアクセスを求める新しいクラスの AI ネイティブ アプリケーションをどのように実現しているかをご覧ください。
フィジカル AI は、ロボット、車両、カメラ、IoT システムが現実世界で認識し、推論し、行動できるようにします。 AI グリッドにより、NVIDIA Metropolis はカメラの近くで都市規模のビジョン AI を運用し、リアルタイム分析を実現します。一方、組み込みコンピューティングが不足する場合には、自律ロボットがより負荷の高い計画や推論処理を近隣のサイトに委ねます。
対話型 AI アシスタントなどのインタラクティブ AI サービスは、自然な反応と応答性を維持するために、厳しいエンドツーエンドの遅延とジッタ制御に依存しています。 AI グリッドは、データに物理的に近いノードでこれらのワークロードを実行し、遅延の余裕を確保します。需要の急増や部分的な停止時でも、各リクエストを最善の利用可能なリソースにルーティングします。
パーソナライズされた AI アシスタント、メディアおよびスポーツ体験、エンタープライズ アプリケーションは、数千または数百万件の同時セッションに対する応答をリアルタイムで適応させる必要があります。 AI グリッドでは、オペレーターは地域ノードでユーザーまたはテナントのコンテキストをキャッシュし、ユーザーに近い場所でパーソナライゼーションのロジックと生成を実行できます。これにより、後続の遅延を改善しながら、常時接続のパーソナライゼーションの経済性を持続可能にします。
RAN、トラフィック ステアリング、ユーザー プレーンの最適化などのネットワーク ワークロードは、フローを分析し、リアルタイムの意思決定を下すために、AI にますます依存しています。AI グリッドは、アプリケーションと同じ分散インフラでこれらの AI ネイティブ ネットワーク機能を実行し、ネットワーク全体で利用率を向上させ、よりスマートなルーティング、ポリシーの実施、体験の質を実現します。
次のステップ