ディープラーニング
推論プラットフォーム

クラウド、データセンター、エッジ、自律動作マシン向けの推論ソ
フトウェアおよびアクセラレータ

AI の高速化。コストの削減。

画像や音声の認識、自然言語処理、画像検索、レコメンデーションのパーソナライズなど、ますます高度化する AI 対応サービスに対する需要が爆発的に増加しています。同時に、データセットが増加し、ネットワークが複雑になり、ユーザーの期待に応えるためのレイテンシ要件は厳しくなっています。

NVIDIA の AI 推論プラットフォームは、クラウド、データセンター、ネットワークエッジ、車両に展開される次世代 AI 製品/サービスに不可欠なパフォーマンス、効率性、応答性を提供するプログラム可能な推論アクセラレータです。

NVIDIA GPU の潜在能力を NVIDIA TensorRT ですべて引き出す

TensorRT が最高の推論性能を引き出すための鍵です。NVIDIA TensorRT を使用することで、トレーニングされた推論用ニューラル ネットワークを迅速に最適化、検証、展開できます。TensorRT は、CPU のみの推論と比較して、リアルタイム レイテンシで最大 40 倍のスループットを実現します。

統一されたエンドツーエンドのスケーラブルなディープラーニング推論

1 つの統一されたアーキテクチャにより、 NVIDIA TensorRT, であらゆるディープラーニング フレームワーク上のニューラル ネットワークのトレーニング、最適化、展開を行い、エッジでのリアルタイム推論を実現します。 With NVIDIA DGX systems,  NVIDIA Tesla®, NVIDIA Jetson, and NVIDIA DRIVE PX により、NVIDIA はエンドツーエンドのスケーラブルなディープラーニング プラットフォームを提供します。

deep-learning-ai-inference-maximize-gpu-utilization-625-u

データ センター の推論のために
GPU 活用を最大化する

あなたのプロジェクトに NVIDIA Inference Server を使用することで、最新の AI を簡単に組み込むことができます。GPU アクセラレーションを最大化し、すべての主要な AI モデルに対応した推論のためのマイクロサービスです。 NVIDIA Tensor コア GPU の驚異的なパフォーマンスを活用し、DevOps デプロイメント モデルにシームレスに統合し、 NVIDIA GPU 向け Kubernetes のようなオートスケーラーを使用して需要をスケーリングする、プロダクション レディの推論サーバーで推論の展開をより迅速にします。

大規模なコスト削減

データセンターの管理者は、サーバーの生産性を最大限に維持するためにパフォーマンスと効率性のいずれかを妥協しなければなりません。単一の NVIDIA Tesla P4 サーバーは、11 台の汎用 CPU サーバーと同等のディープラーニング推論アプリケーションおよびサービスを提供します。さらに、エネルギー要件も低減され、最大 80% のコスト削減も実現します。

大規模なコスト削減

データセンターの管理者は、サーバーの生産性を最大限に維持するためにパフォーマンスと効率性のいずれかを妥協しなければなりません。単一の NVIDIA Tesla P4 サーバーは、11 台の汎用 CPU サーバーと同等のディープラーニング推論アプリケーションおよびサービスを提供します。さらに、エネルギー要件も低減され、最大 80% のコスト削減も実現します。

推論ソリューション

AI の高速化を実現する方法を学ぶ

「NVIDIA GPU と NVIDIA TensorRT で AI の高速化を実現する」ウェビナーをご覧ください