AI には、爆発的に増加し続けるデータに対応しながら、応答の速さを維持することが求められています。この課題には、世界で最速で最も効率的なデータ センター向け推論プラットフォームである NVIDIA® Tesla®, で臨んでください。Tesla はディープラーニングのあらゆるワークロードに対処し、最速のスループット、最高の効率性、最高の柔軟性を組み合わせた最適な推論ソリューションで AI に力を与えます。
Tesla V100 は GPU あたり 125 テラフロップスという推論性能を備えています。8 個の Tesla V100 を備えた 1 台のサーバーで 1 ペタフロップスの性能を発揮します。
Tesla P4 はスケールアウト サーバーを高速化し、CPU の 60 倍という驚異的なエネルギー効率性を提供します。
Tesla P40 は、優れた推論性能、INT8 精度、24 GB の内蔵メモリで驚異的な能力を発揮します。
Volta を採用した Tesla V100 GPU により、データ センターは劇的に増加したスループットでディープラーニングのワークロードに対応し、大量に押し寄せるデータから情報を抽出できます。Tesla V100 を 1 つ備えたサーバーは、ディープラーニングの推論作業負荷において、CPU だけのサーバー 50 台に匹敵するため、低い購入コストでスループットを劇的に向上させることができます。
極めて効率性の高い Tesla P4 GPU は、その小さなフォーム ファクタと 50/75 W の電力設計で、高密度に最適化されたスケールアウト サーバーを高速化します。CPU と比較して 52 倍という驚異的なエネルギー効率性でディープラーニングの推論ワークロードに対応します。お客様は既存のインフラストラクチャで機能を拡張し、AI ベースのアプリケーションに対する需要の増加に対応できます。
Tesla P4 GPU は最大 39 件の HD ビデオ ストリームをリアルタイムで分析できます。専用のハードウェアで加速するデコード エンジンを備え、 NVIDIA CUDA® コアと並列実行され、推論します。ディープラーニングをビデオ パイプラインに統合することにより、お客様はビデオ検索やその他のビデオ関連サービスを促進するスマートで革新的な新しいレベルのビデオ サービスを提供できます。
NVIDIA TensorRT™はディープラーニング アプリケーションの稼動展開向けの高性能なニューラル ネットワーク推論エンジンです。TensorRT を使用すると、学習済みのニューラル ネット (通常、32 ビットまたは 16 ビット データ) を、低精度の Tesla P4 でのINT8 演算または、Tesla V100 での FP16 向けに最適化します。 NVIDIA DeepStream SDK は Tesla GPU の性能を利用して、ビデオ ストリームのデコードと分析を同時に行います。
iFLYTEK の Voice Cloud Platform は、トレーニングと推論に NVIDIA Tesla P4 GPU と P40 GPU を利用し、音声認識の精度を上げています。
NVIDIA Inception Program のスタートアップ企業である Valossa は、NVIDIA GPU を利用してディープラーニングを加速し、ビデオ データから視聴者の行動を推測しています。
JD は NVIDIA AI 推論プラットフォームを利用し、ビデオ検出の効率を 40 倍に上げました。
ディープラーニング推論向け Tesla V100、P4、P40 発売中。