Cœurs NVIDIA Tensor

Accélération sans précédent des workflows d’IA générative

Les cœurs Tensor sont une nouvelle technologie avancée de NVIDIA autorisant des calculs en précision mixte, ce qui permet d’accélérer le rendement tout en préservant la précision et en fournissant une sécurité accrue. La nouvelle génération des cœurs Tensor apporte des gains de performance significatifs à une grande variété de tâches d’intelligence artificielle (IA) et de calcul haute performance (HPC). Avec un entraînement des modèles d’IA générative jusqu'à 4 fois plus rapide et des performances d'inférence jusqu'à 45 fois plus élevées, les cœurs NVIDIA Tensor permettent d'accélérer l'intégralité des charges de travail des usines d'IA modernes.

Techniques d’entraînement révolutionnaires

L’entraînement des modèles d’IA générative dotés de plusieurs billions de paramètres avec un niveau de précision FP16 (virgule flottante à 16 bits) peut prendre jusqu'à plusieurs mois. Les cœurs NVIDIA Tensor offrent des performances significativement plus élevées pour les calculs FP8 avec le moteur de transformation, les calculs TF32 (Tensor Float 32) et les calculs FP16 à précision ajustée. La prise en charge directe de ces modèles dans des frameworks natifs via les bibliothèques logicielles CUDA-X™garantit une implémentation automatique, ce qui permet de réduire les délais d’entraînement tout en maintenant des résultats conformes à avec une précision préservée.   

Moteur de pointe pour l’IA générative

Maintenir une faible latence et un rendement élevé tout en maximisant l’utilisation est l'une des principales exigences pour déployer des systèmes d’inférence fiables. Le moteur de transformation de seconde génération de l'architecture NVIDIA Blackwell délivre des performances exceptionnelles avec sa polyvalence lui permettant d’accélérer des modèles d’IA générative dotés de plusieurs billions de paramètres. 

Les cœurs Tensor ont permis à NVIDIA de se classer à la première place des benchmarks MLPerf, qui font autorité dans toute l’industrie en matière d'inférence.

Fonctionnalités HPC avancées

Le calcul haute performance (HPC) est un pilier de la science moderne. Pour réaliser de nouvelles découvertes scientifiques, les chercheurs ont aujourd’hui recours à des simulations avancées afin d'étudier des systèmes moléculaires complexes à des fins de recherche pharmaceutique, d'utiliser de nouveaux modèles physiques pour identifier de nouvelles sources d'énergie ou d'analyser de grands volumes de données atmosphériques pour mieux anticiper les phénomènes climatiques extrêmes. Les cœurs NVIDIA Tensor mobilisent toute une gamme d’opérations (TF32, FP16, INT8 et INT4) pour accélérer la recherche scientifique avec le plus haut niveau de précision.

Notre kit de développement pour le HPC regroupe une suite complète de compilateurs, de bibliothèques logicielles et d’outils essentiels pour le développement d’applications HPC sur la plateforme de NVIDIA.

Cœurs Tensor NVIDIA Blackwell

Cinquième génération

L’architecture Blackwell fournit des performances jusqu’à 30 fois plus rapides par rapport aux modèles NVIDIA Hopper™ de génération précédente pour le traitement de modèles massifs tels que GPT-MoE-1.8T. Ce gain de performance est rendu possible par la cinquième génération des cœurs Tensor. Les cœurs Tensor de l'architecture Blackwell permettent d'atteindre de nouveaux niveaux de précision, notamment avec les formats MX (microscaling) définis par la communauté, offrant ainsi une exactitude et une facilité de remplacement accrues pour garantir une précision encore plus élevée. 

Nouveaux formats de précision

Alors que les modèles d’IA générative ne cessent de gagner en taille et en complexité, il est aujourd'hui crucial d’améliorer les performances d’entraînement et d’inférence. Pour répondre à ces besoins en matière de puissance de calcul, les cœurs Tensor de l'architecture Blackwell prennent en charge de nouveaux formats de quantification et de précision, y compris les formats MX (microscaling) définis par la communauté.

Moteur de transformation de seconde génération

Le moteur de transformation de seconde génération fait appel à une version personnalisée de la technologie Blackwell Tensor Core combinée aux innovations de la bibliothèque logicielle NVIDIA® TensorRT™-LLM et du framework NeMo™ pour accélérer l'inférence et l’entraînement avec les grands modèles de langage et les modèles MoE (Mixture of Experts). Alimenté par le niveau de précision FP4 des cœurs Tensor, le moteur de transformation permet de doubler les performances et l’efficacité énergétique tout en maintenant un niveau de précision élevé avec les modèles MoE de génération actuelle et de nouvelle génération.

Le moteur d’IA générative va permettre de démocratiser les LLM modernes avec des performances en temps réel. Les entreprises peuvent désormais optimiser leurs processus commerciaux en déployant des modèles d’IA générative à la pointe de la technologie à moindre coût.

Cœurs Tensor de l’architecture NVIDIA Hopper

Quatrième génération

Grâce à la mise en œuvre de la technologie Tensor Core, les GPU NVIDIA Hopper ont multiplié par 60 leur niveau de performance maximal, ce qui a favorisé la démocratisation du calcul accéléré pour l’IA et le HPC. L’architecture NVIDIA Hopper optimise les cœurs Tensor de quatrième génération grâce à un moteur de transformation dédié qui s’appuie sur des calculs FP8 pour fournir des performances 6 fois plus élevées qu’avec les opérations FP16 dans le cadre de l’entraînement de modèles complexes dotés de plusieurs billions de paramètres. Mais ce n’est pas tout : forts de performances 3 fois plus élevées pour les calculs TF32, FP64, FP16 et INT8, les cœurs Hopper Tensor vous offrent des gains de performance significatifs avec toutes les charges de travail.

La plateforme pour Data Center de bout en bout la plus puissante au monde pour l’IA et le HPC

Les cœurs Tensor sont des composants essentiels de la pile de solutions NVIDIA pour Data Center, regroupant un ensemble complet de solutions matérielles et logicielles, de systèmes de mise en réseau, de bibliothèques, de modèles d’IA optimisés et d’applications du catalogue NVIDIA NGC™ . Dédiée à l’IA et au HPC, cette plateforme de bout en bout est la plus puissante du marché. Les chercheurs du monde entier peuvent ainsi aboutir plus rapidement à des résultats concrets et déployer des solutions de production hautement évolutives. 

Blackwell Hopper
Niveaux de précision Tensor pris en charge FP64, TF32, BF16, FP16, FP8, INT8, FP6, FP4 FP64, TF32, BF16, FP16, FP8, INT8
Niveaux de précision CUDA® pris en charge FP64, FP32, FP16, BF16 FP64, FP32, FP16, BF16, INT8

*Spécifications préliminaires susceptibles d’être modifiées.

En savoir plus sur NVIDIA Blackwell.