Qu’il s’agisse de reconnaissance vocale pour la transcription audio, de compréhension du langage naturel ou de synthèse vocale, vous pouvez désormais exécuter des pipelines d’IA conversationnelle dans leur intégralité avec une latence inférieure à 300 millisecondes (ms) et des interactions en temps réel, ce qui permet d’enrichir la complexité du pipeline sans compromettre l’expérience utilisateur.
Le GPU NVIDIA A100 Tensor Core a enregistré des records de performance sans précédent dans le benchmark MLPerf Training v0.7, avec un rendement de 6,53 heures par accélérateur pour BERT sur WikiText et une mise à l’échelle des performances en seulement 0,83 minute.