IA Conversacional

Acelere el Proceso Completo, Desde el Reconocimiento de Voz Hasta la Comprensión del Lenguaje y la Síntesis de Voz

Los servicios impulsados por IA en el habla, la visión y el lenguaje presentan un camino revolucionario para la conversación natural personalizada, pero enfrentan requisitos estrictos de precisión y latencia para la interactividad en tiempo real. Con el SDK de IA conversacional de NVIDIA, los desarrolladores pueden crear e implementar rápidamente servicios de IA multimodales de última generación para impulsar aplicaciones en una única arquitectura unificada, entregando sistemas de baja latencia y alta precisión con poca inversión inicial.

 
Conversational AI Models From NGC

Modelos de Vanguardia

Aproveche los modelos de IA conversacional de NGC™ que están entrenados en varios conjuntos de datos abiertos y patentados durante más de 100.000 horas en sistemas NVIDIA DGX™.

Multinodal Solutions to Build Human-Like Interactive Skills

Habilidades Personalizadas

Personalice las habilidades de habla, lenguaje y visión en su dominio utilizando el Kit de Herramientas de Transfer Learning.

Deploy Optimized Models in the Cloud & Data Center

Despliegue Rápido

Implemente modelos optimizados en el cloud, en el data center y en el edge con un solo comando.

End-to-End Acceleration to Execute Model Inference Under the 300ms latency Bound

Aceleración de Extremo a Extremo

Acelere a escala de canalización y ejecute la inferencia del modelo muy por debajo del límite de latencia de 300 milisegundos (ms).

Verdadera Aceleración de Extremo a Extremo

Pipeline Completamente Acelerado

Inferencia de Pipeline Completa en Fracciones de Segundo

Ejecute pipelines de inteligencia artificial conversacionales completas que consisten en reconocimiento automático de voz (ASR) para transcripción de audio, comprensión del lenguaje natural (NLU) y conversión de texto a voz (TTS) en una latencia muy por debajo de los 300ms para interacciones en tiempo real, liberando espacio para aumentar la complejidad de la canalización sin sacrificar la experiencia del usuario.

La GPU NVIDIA A100 Tensor Core entregó un rendimiento récord en el benchmark MLPerf Training v0.7, registrando 6,53 horas por acelerador para BERT en WikiText y 0,83 minutos a escala.

Soluciones NVIDIA Para
Aplicaciones de IA Conversacional

Capacite e Implemente con Sistemas Diseñados Específicamente

Entrena a Escala

NVIDIA DGX™ A100 cuenta con ocho GPU NVIDIA A100 Tensor Core, el acelerador de centro de datos más avanzado jamás creado. La precisión de Tensor Float 32 (TF32) ofrece una mejora del rendimiento de la IA 20 veces superior a las generaciones anteriores, sin ningún cambio de código, y un aumento de rendimiento 2 veces mayor al aprovechar la escasez estructural en los modelos comunes de PNL. NVIDIA® NVLink® de tercera generación, NVIDIA NVSwitch™ de segunda generación y NVIDIA Mellanox® InfiniBand permiten conexiones de ancho de banda ultra alto y baja latencia entre todas las GPU. Esto permite que múltiples sistemas DGX A100 entrenen modelos masivos de mil millones de parámetros a escala para brindar una precisión de vanguardia. Y con NVIDIA NeMo™, un conjunto de herramientas de código abierto, los desarrolladores pueden crear, entrenar y ajustar modelos de IA conversacional acelerados por DGX con solo unas pocas líneas de código.

NVIDIA DGX A100 - Universal System for AI Infrastructure
NVIDIA DGX A100 - Universal System for AI Infrastructure

Implementar en el Edge

La Plataforma NVIDIA EGX hace posible impulsar la inteligencia artificial conversacional en tiempo real y, al mismo tiempo, evitar la latencia de la red mediante el procesamiento de datos de voz y lenguaje de alto volumen en el borde. Con NVIDIA TensorRT™, los desarrolladores pueden optimizar modelos para inferencia y ofrecer aplicaciones de IA conversacionales con baja latencia y alto rendimiento. Con el Servidor de Inferencia NVIDIA Triton™, los modelos se pueden implementar en producción. TensorRT y el Servidor de Inferencia Triton funcionan con NVIDIA Riva, un framework de aplicación para IA conversacional, para construir e implementar canalizaciones multimodales aceleradas por GPU de extremo a extremo en EGX. De manera interna, Riva aplica TensorRT, configura el servidor de inferencia Triton y expone los servicios a través de una API estándar, implementando con un solo comando a través de gráficos de Helm en un clúster de Kubernetes.

Habilidades Multimodales Impulsadas por la IA

Transcripción de Varios Altavoces

Los algoritmos clásicos de conversión de voz a texto han evolucionado y ahora es posible transcribir reuniones, conferencias y conversaciones sociales al mismo tiempo que se identifica a los oradores y se etiquetan sus contribuciones. NVIDIA Riva permite la fusión de datos de visión y audio multisensor en un solo flujo de información que se utiliza para componentes de transcripción avanzados, como la diarización visual necesaria para diferenciar varias voces en tiempo real.

NVIDIA Riva Enables the Fusion of Multi-Sensor Audio and Vision Data
AI Driven Services to Engage With Customers

Asistente Virtual

Los asistentes virtuales pueden interactuar con los clientes de una manera casi humana, potenciando las interacciones en los centros de contacto, altavoces inteligentes y asistentes inteligentes en el automóvil. Los servicios impulsados por IA como el reconocimiento de voz, la comprensión del lenguaje, la síntesis de voz y la codificación de voz por sí solos no pueden admitir un sistema de este tipo, ya que carecen de componentes clave como el seguimiento de diálogos. Riva complementa estos servicios troncales con componentes fáciles de usar que se pueden ampliar para cualquier aplicación.

Acelerando Empresas y Bibliotecas para Desarrolladores

  • Socios del Ecosistema
  • Bibliotecas para Desarrolladores

Acelere los workflows de voz, visión e idiomas superiores por GPU para cumplir con los requisitos a escala empresarial.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Cree modelos de deep learning de vanguardia y acelerados por GPU con bibliotecas de IA conversacionales populares.

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Casos de Uso de la Industria

Curai’s Platform to Enhance Patient Experience

La Aplicación Basada en Chat Mejora la Experiencia del Paciente

Utilizando el procesamiento del lenguaje natural, la plataforma de Cureai permite a los pacientes compartir sus condiciones con sus médicos, acceder a su propio historial médico y ayudar a los proveedores a extraer datos de las conversaciones médicas para informar mejor el tratamiento.

Square Takes Edge Off Conversational AI with GPUs

Square saca ventaja de la IA conversacional con GPU

Obtenga más información sobre Square Assistant, un motor de inteligencia artificial conversacional que permite a las pequeñas empresas comunicarse con sus clientes de manera más eficiente.

Transforming  Financial  Services  With Conversational  AI

Transformando los Servicios Financieros con IA Conversacional

Descubra cómo debería ser el recorrido empresarial para una implementación exitosa y cómo habilitar su negocio a través del ROI.

Empiece a Acelerar la IA Conversacional Hoy Mismo

Entrene de Forma Más Inteligente con el Kit de Herramientas de Transfer Learning de NVIDIA

Ejecutar Capacitación en Sistemas NVIDIA DGX A100

Simplifique la implementación con SDK NVIDIA Riva

Implementar en el Edge en la Plataforma NVIDIA EGX