IA conversacional multimodal

Acelera la canalización completa, desde el reconocimiento de voz automático a la comprensión del lenguaje natural y la salida de texto a voz.

Los servicios impulsados por IA en voz, visión e idioma presentan un camino revolucionario para la conversación natural personalizada, pero se enfrentan a requisitos estrictos de precisión y latencia para la interactividad en tiempo real. Con la plataforma de IA conversacional de NVIDIA, los desarrolladores pueden crear e implementar rápidamente servicios de IA de última generación para alimentar las aplicaciones a través de una sola arquitectura unificada, lo que ofrece sistemas de baja latencia y alta precisión con poca inversión inicial.

 
Conversational AI Models From NGC

Modelos de última generación

Aprovecha los modelos de IA conversacional de NGC™ entrenados durante más de 100 000 horas en sistemas NVIDIA DGX.

Multinodal Solutions to Build Human-Like Interactive Skills

Habilidades multimodal personalizadas

Fusiona voz, lenguaje y visión de manera natural en una sola canalización para crear habilidades interactivas como las humanas.

Deploy Optimized Models in the Cloud & Data Center

Implementación rápida

Implementa modelos optimizados en la nube, en el centro de datos y en el perímetro con un solo comando.

End-to-End Acceleration to Execute Model Inference Under the 300ms latency Bound

Aceleración integral

Acelera a escala de la canalización y ejecuta la inferencia del modelo con un límite de latencia muy por debajo de los 300 milisegundos (ms).

Verdadera aceleración integral

Canalización totalmente acelerada

Inferencia de canalización completa en fracciones de segundo

Ejecuta canalizaciones de IA conversacional completas con reconocimiento automático de voz (ASR) para la transcripción de audio, la comprensión del lenguaje natural (NLU) y la conversión de texto a voz (TTS) con un límite de latencia muy por debajo de los 300 ms para interacciones en tiempo real, con lo que se recupera espacio para aumentar la complejidad de la canalización sin sacrificar la experiencia del usuario.

La GPU NVIDIA A100 Tensor Core consiguió un rendimiento récord en la prueba de referencia MLPerf Training v0.7, en la que se registraron 6,53 horas por acelerador para BERT en WikiText y 0,83 minutos a escala.

Soluciones Nvidia para
aplicaciones de IA conversacional

Entrenamiento e implementación con sistemas diseñados exprofeso

Entrenamiento a escala

NVIDIA DGX™ A100 incluye ocho GPU NVIDIA A100 Tensor Core, el acelerador de centro de datos más avanzado jamás realizado. La precisión Tensor Float 32 (TF32) multiplica por 20 el rendimiento de la de IA en comparación con las generaciones anteriores (sin ningún cambio de código) y un incremento de más del doble de rendimiento al aprovechar la dispersión estructural en modelos comunes de NLP. Con NVIDIA® NVLink® de tercera generación, NVIDIA NVSwitch™ de segunda generación y NVIDIA Mellanox® InfiniBand se consiguen conexiones ultraaltas y de baja latencia entre todas las GPU. Esto permite que varios sistemas A100 de DGX entrenen modelos masivos con miles de millones de parámetros a escala para ofrecer una precisión de última generación. Y gracias a NVIDIA NeMo™, un kit de herramientas de código abierto, los desarrolladores pueden crear, entrenar y optimizar modelos de IA conversacional acelerados por DGX con tan solo unas cuantas líneas de código.

NVIDIA DGX A100: sistema universal para la infraestructura de IA
NVIDIA EGX™ A100 hace posible el control de IA conversacional en tiempo real

Implementación en el perímetro

NVIDIA EGX Platform hace posible el control de IA conversacional en tiempo real a la vez que se evita la latencia de la red al procesar grandes volúmenes de datos de voz y de idioma en el perímetro. Con NVIDIA TensorRT™, los desarrolladores pueden optimizar los modelos con inferencia y ofrecer aplicaciones de IA conversacional de baja latencia y alto rendimiento. Con el servidor de inferencia NVIDIA Triton™, los modelos se pueden implementar en la producción. TensorRT y el servidor de inferencia Triton funcionan con NVIDIA Jarvis, un entorno de trabajo de IA conversacional para generar e implementar canalizaciones integrales multimodales con aceleración de GPU en EGX. Desde el punto de vista técnico, Jarvis aplica TensorRT, configura el servidor de inferencia Triton y expone los servicios a través de una API estándar, con lo que se implementa un solo comando a través de gráficos Helm en un clúster de Kubernetes.

Habilidades multimodales impulsadas por IA

Transcripción de varios altavoces

Los algoritmos de voz a texto clásicos han evolucionado, lo que ahora permite transcribir reuniones, conferencias y conversaciones sociales al mismo tiempo que se identifican los oradores y se etiquetan sus contribuciones. NVIDIA Jarvis permite la fusión de datos de audio y visión multisensor en un solo flujo de información que se utiliza con componentes avanzados de transcripción, como la diarización visual necesaria para diferenciar varias voces en tiempo real.

 
 

Asistente virtual

Los asistentes virtuales pueden interactuar con los clientes de forma casi humana, con lo que se potencian las interacciones en los centros de contacto, los altavoces inteligentes y los asistentes inteligentes integrados en el coche. Los servicios impulsados por IA como el reconocimiento de voz, la comprensión de del lenguaje, la síntesis de voz y el vocoding (codificación de voz) por sí solos no admiten dicho sistema, ya que carecen de componentes clave como el seguimiento de diálogos Jarvis complementa a estos servicios troncales con componentes fáciles de usar que se pueden ampliar para cualquier aplicación.

Aceleración de empresas y bibliotecas para desarrolladores

  • Partners del ecosistema
  • Bibliotecas para desarrolladores

Importantes flujos de trabajo de voz, visión y lenguaje acelerados por GPU para satisfacer los requisitos de escala empresarial.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Bibliotecas de IA de conversación populares que crean modelos de deep learning de última generación acelerados por GPU

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Posibles usos en el sector

Plataforma de Curai para mejorar la experiencia del paciente

Aplicación basada en chat que mejora la experiencia del paciente

Mediante el procesamiento del lenguaje natural, la plataforma de Cureai permite a los pacientes compartir sus circunstancias con sus médicos, acceder a su propio historial médico y ayudar a los proveedores a extraer datos de las conversaciones médicas para mejorar la información del tratamiento.

Square reduce las complicaciones de la IA conversacional con las GPU

Square reduce las complicaciones de la IA conversacional con las GPU

Infórmate sobre Square Assistant, un motor de IA conversacional que permite a las pequeñas empresas comunicarse con sus clientes de forma más eficiente. 

Transformación de los servicios financieros con IA conversacional

Transformación de los servicios financieros con IA conversacional

Descubre cómo debe ser el recorrido de la empresa para una implementación de éxito y cómo puedes potenciar tu negocio a través del retorno de la inversión.

Empieza a acelerar la inteligencia artificial hoy mismo

Entrenamiento de modelos de IA con NVIDIA NeMo Framework

Ejecución el entrenamiento en sistemas NVIDIA DGX A100

Simplificación de la implementación con el entorno de trabajo NVIDIA Jarvis

Implementación en primera línea en sistemas NVIDIA EGX A100