ディープラーニング推論
プラットフォーム

クラウド、データセンター、エッジ、自律型マシン用の推論ソフトウェアおよびアクセラレータ

AIの高速化。コストの削減。

画像や音声の認識、自然言語処理、画像検索、レコメンデーションのパーソナライズなど、ますます高度化する AI 対応サービスに対する需要が爆発的に増加しています。同時に、データセットが増加し、ネットワークが複雑になり、ユーザーの期待に応えるためのレイテンシ要件は厳しくなっています。 

NVIDIA® TensorRT は、クラウド、データセンター、ネットワークエッジ、車両に展開される次世代 AI 製品/サービスに不可欠なパフォーマンス、効率性、応答性を提供するプログラム可能な推論アクセラレータです。 

NVIDIA GPU の潜在能力を NVIDIA TensorRT ですべて引き出す

NVIDIA のディープラーニング推論ソフトウェアは、最適な推論パフォーマンスを引き出すための鍵となります。NVIDIA TensorRT を使用することで、トレーニングされた推論用ニューラル ネットワークを迅速に最適化、検証、展開できます。TensorRT は、CPU のみの推論と比較して、7 ミリ秒未満のリアルタイム レイテンシで最大 40 倍のスループットを実現します。

統一された拡張性の高いエンドツーエンドのディープラーニング推論

1 つの統一されたアーキテクチャにより、NVIDIA TensorRT であらゆるディープラーニング フレームワーク上のニューラル ネットワークのトレーニング、最適化、展開を行い、エッジでのリアルタイム推論を実現します。 NVIDIA® DGX システム、 NVIDIA Tesla®NVIDIA JetsonNVIDIA DRIVE PX 、により、NVIDIA は拡張性の高いエンドツーエンドのディープラーニング プラットフォームを提供できるようになりました。

 

 

大規模なコスト削減

データセンターの管理者は、サーバーの生産性を最大限に維持するためにパフォーマンスと効率性のいずれかを妥協しなければなりません。単一の NVIDIA Tesla P4 サーバーは、11 台の汎用 CPU サーバーと同等のディープラーニング推論アプリケーションおよびサービスを提供します。さらに、エネルギー要件も低減され、最大 80% のコスト削減も実現します。

推論ソリューション

AI の高速化を実現する方法を学ぶ

今すぐ登録して「NVIDIA GPU と NVIDIA TensorRT による AI の高速化」ウェビナーに参加する