Plateforme d’inférence NVIDIA pour le Deep Learning

Logiciels et accélérateurs d’inférence pour les services Cloud, les Data Centers, les systèmes Edge et les machines autonomes

IA plus rapide à coût réduit.

La demande n’a jamais été aussi forte en matière de services IA sophistiqués dans des domaines industriels allant de la reconnaissance vocale à l’analyse d’images en passant par le traitement automatique du langage naturel, la recherche visuelle ou les recommandations personnalisées. En parallèle, les volumes de données sont de plus en plus massifs, les réseaux sont de plus en plus complexes et les exigences des utilisateurs sont de plus en plus fortes.

La nouvelle plateforme d’inférence IA de NVIDIA fournit toutes les performances, l’efficacité et la réactivité requises par la nouvelle génération de services et de produits IA - pour les services Cloud, les Data Centers, les systèmes Edge et les véhicules autonomes.

Exploitez le plein potentiel des GPU NVIDIA avec NVIDIA TensorRT

TensorRT fournit des performances optimales. Grâce à NVIDIA TensorRT, vous pouvez optimiser, valider et déployer à une vitesse sans précédent des réseaux de neurones spécialement entraînés pour les opérations d’inférence. Par rapport aux configurations uniquement basées sur le traitement CPU, TensorRT offre un rendement jusqu’à 40 fois plus élevé avec des performances en temps réel.

Plateforme d’inférence Deep Learning évolutive et unifiée de bout en bout

Grâce à une architecture unifiée à hautes performances, les réseaux de neurones des frameworks Deep Learning peuvent être entraînés et optimisés avec NVIDIA TensorRT puis déployés en temps réel sur les systèmes Edge. L’association des solutions NVIDIA DGX, NVIDIA Tesla®, NVIDIA Jetson et NVIDIA DRIVE™ PX constitue une plateforme Deep Learning de bout en bout entièrement évolutive et disponible dès maintenant.

deep-learning-ai-inference-maximize-gpu-utilization-625-u

MAXIMISEZ L’UTILISATION GPU POUR LES INFÉRENCES SUR DATA CENTER

Incorporez facilement des fonctionnalités IA de pointe à vos solutions existantes grâce à NVIDIA Inference Server, un microservice d’inférence qui maximise l’accélération GPU et héberge la totalité des modèles IA essentiels. Déployez vos applications plus rapidement avec ce serveur d’inférence optimisé pour la production, qui exploite les performances foudroyantes des GPU NVIDIA Tensor Core et intègre vos modèles de déploiement DevOps de manière transparente en réalisant une mise à l’échelle à la demande grâce à des outils d’autoscaling automatique comme Kubernetes pour les GPU NVIDIA.

Réduction des coûts à grande échelle

Pour garantir un niveau de productivité optimal, les gestionnaires de Data Centers ont longtemps dû faire un compromis entre performance et efficacité énergétique. Un seul serveur NVIDIA Tesla P4 peut remplacer jusqu’à onze serveurs CPU génériques pour les applications et les services Deep Learning, ce qui optimise la consommation et offre une réduction des coûts pouvant atteindre jusqu’à 80%.

Réduction des coûts à grande échelle

Pour garantir un niveau de productivité optimal, les gestionnaires de Data Centers ont longtemps dû faire un compromis entre performance et efficacité énergétique. Un seul serveur NVIDIA Tesla P4 peut remplacer jusqu’à onze serveurs CPU génériques pour les applications et les services Deep Learning, ce qui optimise la consommation et offre une réduction des coûts pouvant atteindre jusqu’à 80%.

Solutions d’inférence

Découvrez comment accélérer vos projets IA

Regardez le webinaire "Accélération des projets IA avec les GPU et NVIDIA TensorRT".