IA conversationnelle multimodale

Accélérez l’intégralité de votre pipeline d’IA conversationnelle, de la reconnaissance des voix au traitement automatique du langage naturel en passant par la synthèse vocale.

Les nouveaux services informatiques tirant profit de l’IA pour la reconnaissance vocale, la vision par ordinateur et le traitement automatique du langage constituent une approche résolument novatrice pour générer des conversations naturelles et personnalisées. Ils doivent cependant répondre à des exigences très strictes en matière de précision et de latence pour proposer des interactions optimales en temps réel. Grâce à la plateforme d’IA conversationnelle conçue par NVIDIA, les développeurs peuvent désormais configurer et déployer plus rapidement des services d’IA à la pointe de la technologie pour mettre en œuvre des applications au sein d’une architecture unifiée, ce qui permet de fournir des systèmes à haute précision et à faible latence avec un investissement initial limité.

 
Conversational AI Models From NGC

Modèles à la pointe de la technologie

Utilisez NGC™ pour exploiter des modèles d’IA conversationnelle ayant été entraînés pendant plus de 100 000 heures sur les systèmes NVIDIA DGX systems.

Multinodal Solutions to Build Human-Like Interactive Skills

Fonctionnalités multimodales personnalisées

Combinez la parole, le langage et la vision au sein d’un pipeline unifié pour créer des modèles comportementaux humains à haut degré d’interactivité.

Deploy Optimized Models in the Cloud & Data Center

Déploiement rapide

Déployez des modèles optimisés dans le Cloud, sur Data Center et à l’Edge avec une seule commande.

End-to-End Acceleration to Execute Model Inference Under the 300ms latency Bound

Accélération de bout en bout

Accélérez vos applications à l’échelle du pipeline et exécutez des inférences avec une latence inférieure à 300 millisecondes (ms).

Accélération totale de bout en bout

Accélérez l’intégralité de votre pipeline

Accélérez tout votre pipeline d’inférence en une fraction de seconde

Qu’il s’agisse de reconnaissance vocale pour la transcription audio, de compréhension du langage naturel ou de synthèse vocale, vous pouvez désormais exécuter des pipelines d’IA conversationnelle dans leur intégralité avec une latence inférieure à 300 millisecondes (ms) et des interactions en temps réel, ce qui permet d’enrichir la complexité du pipeline sans compromettre l’expérience utilisateur.

Le GPU NVIDIA A100 Tensor Core a enregistré des records de performance sans précédent dans le benchmark MLPerf Training v0.7, avec un rendement de 6,53 heures par accélérateur pour BERT sur WikiText et une mise à l’échelle des performances en seulement 0,83 minute.

Solutions NVIDIA pour
les applications d’IA conversationnelle

Entraînez et déployez des systèmes spécifiquement conçus pour vos projets

Entraînez vos modèles en toute évolutivité

Équipé d’un total de huit GPU NVIDIA A100 Tensor Core, NVIDIA DGX™ A100 est l’accélérateur pour Data Center le plus avancé jamais conçu. Par rapport aux produits de génération précédente, il offre des performances de calcul TF32 jusqu’à 20 fois élevées dans les applications d’IA (sans le moindre changement de code) et un gain de performance doublé avec les principaux modèles de traitement automatique du langage naturel grâce à une prise en charge efficace de la dispersion structurelle. Les technologies NVIDIA® NVLink® de troisième génération, NVIDIA NVSwitch™ de seconde génération et NVIDIA Mellanox® InfiniBand permettent des connexions à bande passante ultra-élevée et à faible latence entre tous les GPU. Cette avancée technologique permet à de multiples systèmes DGX A100 d’entraîner des modèles complexes incluant des milliards de paramètres avec une précision exceptionnelle. Enfin, grâce au kit de développement open-source NVIDIA NeMo™, les développeurs peuvent configurer, entraîner et optimiser des modèles d’IA conversationnelle accélérés par DGX en utilisant seulement quelques lignes de code.

NVIDIA DGX A100 - Système universel pour les infrastructures d’IA
NVIDIA EGX™ A100 permet de mettre en œuvre des services d’IA conversationnelle en temps réel

Déployez vos applications sur l’Edge

NVIDIA EGX Platform facilite le déploiement en temps réel d’applications d’IA conversationnelle tout en réduisant la latence du réseau en traitant d’importants volumes de données vocales et linguistiques sur les systèmes Edge. Grâce à NVIDIA TensorRT™, les développeurs peuvent optimiser leurs modèles pour l’inférence et mettre en œuvre des applications d’IA conversationnelle avec une faible latence et un rendement élevé. Le serveur d’inférence NVIDIA Triton™ simplifie quant à lui le déploiement des modèles en production. TensorRT et le serveur d’inférence Triton fonctionnent avec NVIDIA Jarvis, un framework d’applications pour l’IA conversationnelle qui permet de concevoir et de déployer des pipelines multimodaux accélérés par GPU de bout en bout sur la plateforme EGX. D’un point de vue technique, Jarvis assure un fonctionnement optimal de TensorRT, configure le serveur d’inférence Triton et active les services via une API standard, dont le déploiement est permis par une seule ligne de commande avec des graphiques Helm sur un cluster Kubernetes.

Fonctionnalités multimodales accélérées par l’IA

Transcription de flux à intervenants multiples

Les algorithmes traditionnels de synthèse vocale ont largement évolué, permettant aujourd’hui une transcription efficace des réunions, des conférences et des conversations sociales tout en identifiant les intervenants et leurs contributions respectives de manière simultanée. NVIDIA Jarvis permet de fusionner les données multi-capteurs de vision et de rendu audio au sein d’un seul flux d’informations avec des composants de transcription avancés, dans des champs d’application tels que la journalisation visuelle pour différencier des voix multiples en temps réel.

 
 

Assistant virtuel

Que ce soit dans les centres d’appels ou les cockpits automobiles, ou bien encore avec les systèmes d’enceintes intelligentes, les assistants virtuels peuvent désormais interagir avec les utilisateurs de manière quasi autonome. Les services basés sur l’IA comme la reconnaissance vocale, la compréhension du langage naturel, la synthèse vocale ou le vocodage ne peuvent pas prendre en charge eux-mêmes les systèmes avancés d’assistant virtuel, car ils ne possèdent pas certaines capacités fondamentales telles que le suivi des dialogues. Jarvis complète ces services essentiels avec des composants faciles à utiliser qui peuvent être étendus pour n’importe quelle application.

Accélération des bibliothèques logicielles pour les entreprises et les développeurs

  • Partenaires de l'écosystème
  • Bibliothèques de développement

L’accélération GPU des workflows liés à la parole, à la vision et au langage peut répondre à différentes exigences à l’échelle de toute l’entreprise.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Bibliothèques populaires d’IA conversationnelle pour la conception de modèles avancés de Deep Learning accélérés par GPU

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Cas d'utilisation dans l'industrie

La plateforme de Cureai améliore l’expérience des patients

Une application de chat vocal optimise l’expérience des patients

Grâce au traitement automatique du langage naturel, la plateforme conçue par Cureai permet aux patients de mieux expliquer leurs symptômes aux médecins et d’accéder à leur propre dossier médical, tout en facilitant l’extraction de données à partir des échanges médicaux afin d’améliorer la qualité des soins.

Square tire parti de l’IA conversationnelle grâce aux GPU

Square tire parti de l’IA conversationnelle grâce aux GPU

Obtenez plus d’informations sur Square Assistant, un moteur d'IA conversationnelle exploitant les GPU NVIDIA pour fluidifier la communication entre les petites entreprises et leurs clients.

Transformation des services financiers avec l’IA conversationnelle

Transformation des services financiers avec l’IA conversationnelle

Découvrez comment les entreprises peuvent mettre en œuvre l’IA conversationnelle et proposer des services optimisés avec un meilleur retour sur investissement.

Commencez à accélérer l’IA conversationnelle dès aujourd’hui

Entraînez vos modèles d’IA avec le framework NeMo de NVIDIA

Exécutez vos procédures d’entraînement sur les systèmes NVIDIA DGX A100

Simplifiez vos déploiements avec le framework NVIDIA Jarvis

Déployez vos applications à l’Edge sur les systèmes NVIDIA EGX A100