IA conversacional

Acelera la canalización completa, desde el reconocimiento de voz hasta la comprensión del lenguaje y la síntesis de voz

Los servicios impulsados por IA en el habla y el lenguaje presentan un camino revolucionario para la conversación natural personalizada, pero se enfrentan a estrictos requisitos de precisión y latencia para la interactividad en tiempo real. Con la plataforma de SDK de IA conversacional de NVIDIA, los desarrolladores pueden crear e implementar rápidamente servicios de IA de última generación para impulsar las aplicaciones a través de una sola arquitectura unificada, lo que ofrece sistemas de baja latencia y alta precisión con poca inversión inicial.

 
Modelos de IA conversacional de NGC

Precisión de primer nivel

Aprovecha los modelos de IA conversacional de NGC entrenados en diversos conjuntos de datos abiertos y propios durante más de 100 000 horas en sistemas NVIDIA DGX.

Soluciones de múltiples nodos para crear habilidades interactivas similares a las humanas

Totalmente personalizable

Personaliza las habilidades de habla y lenguaje en todas las etapas del proceso, desde los datos hasta el modelo y la canalización. 

Implementa modelos optimizados en la nube y el centro de datos

Implementación escalable

Escala tus aplicaciones con facilidad para gestionar cientos y miles de solicitudes simultáneas.

Aceleración de extremo a extremo para ejecutar la inferencia del modelo por debajo del límite de latencia de 300 ms

Rendimiento en tiempo real

Ejecuta la inferencia del modelo de extremo a extremo por debajo del límite de latencia de 300 milisegundos (ms).

Introducción a la IA conversacional

Descarga nuestro libro electrónico para obtener una introducción a la IA conversacional, cómo funciona y cómo se aplica en la industria actual.

Verdadera aceleración integral

Canalización totalmente acelerada

Inferencia de canalización completa en fracciones de segundo

Ejecuta canalizaciones de IA conversacional completas con reconocimiento automático de voz (ASR) para la transcripción de audio, la comprensión del lenguaje natural (NLU) y la conversión de texto a voz (TTS) con un límite de latencia muy por debajo de los 300 ms para interacciones en tiempo real, con lo que se recupera espacio para aumentar la complejidad de la canalización sin sacrificar la experiencia del usuario.

Soluciones Nvidia para
aplicaciones de IA conversacional

Soluciones de entrenamiento

Desarrolla modelos fácilmente con NVIDIA NeMo

Desarrolla modelos fácilmente con NVIDIA NeMo

Crea, entrena y perfecciona modelos de habla y lenguaje de última generación con NVIDIA NeMo™, un marco de trabajo de código abierto.

Entrenamiento más inteligente con el kit de herramientas NVIDIA TAO

Entrenamiento más inteligente con el kit de herramientas NVIDIA TAO

Acelera 10 veces el tiempo de desarrollo al utilizar modelos de calidad previamente entrenados por NVIDIA y el kit de herramientas NVIDIA TAO.

NVIDIA DGX A100 para la infraestructura de IA

Pon en marcha el entrenamiento en sistemas NVIDIA DGX A100

Acelera el tiempo de solución con el aprendizaje de potentes modelos de lenguaje con miles de millones de parámetros de velocidad y escalabilidad inigualables.

Soluciones de implementación

NVIDIA Riva: servicios de IA conversacionales

Simplifica la implementación con NVIDIA Riva

Implementa servicios de IA conversacional optimizados para obtener el máximo rendimiento en la nube, en el centro de datos y en el perímetro.

Habilita la conversación en tiempo real con NVIDIA

Implementación en el perímetro con la plataforma NVIDIA EGX

Permite conversaciones en tiempo real a la vez que evitas la latencia de la red al procesar grandes volúmenes de datos de voz y de lenguaje en el perímetro.

Entrenamiento e implementación con sistemas diseñados exprofeso

Entrenamiento a escala

NVIDIA DGX A100 cuenta con ocho GPU NVIDIA A100 Tensor Core, el acelerador para centros de datos más avanzado que jamás se haya fabricado. La precisión Tensor Float 32 (TF32) multiplica por 20 el rendimiento de la de IA en comparación con las generaciones anteriores (sin ningún cambio de código) y un incremento de más del doble de rendimiento al aprovechar la dispersión estructural en modelos comunes de PLN. El diseño de A100 permite que varios sistemas A100 de DGX entrenen modelos con miles de millones de parámetros a escala para ofrecer una precisión de última generación. NVIDIA ofrece los kits de herramientas NeMo y TAO para entrenar de forma distribuida los modelos de IA conversacional en A100.

NVIDIA DGX A100: sistema universal para la infraestructura de IA
NVIDIA DGX A100: sistema universal para la infraestructura de IA

Implementación en el perímetro

La plataforma NVIDIA EGX permite impulsar la IA conversacional en tiempo real a la vez que evita la latencia de red al procesar grandes volúmenes de datos de voz y de lenguaje en el perímetro. Con NVIDIA TensorRT, los desarrolladores pueden optimizar los modelos con inferencia y ofrecer aplicaciones de IA conversacional de baja latencia y alto rendimiento. Con el servidor de inferencia NVIDIA Triton, los modelos se pueden implementar en la producción. TensorRT y el servidor de inferencia Triton funcionan con NVIDIA Riva, un entorno de trabajo de IA conversacional para generar e implementar canalizaciones integrales con aceleración de GPU en EGX. Desde el punto de vista técnico, Riva aplica TensorRT, configura el servidor de inferencia Triton y expone los servicios a través de una API estándar, con lo que se implementa un solo comando a través de gráficos Helm en un clúster de Kubernetes.

Aplicaciones de IA conversacional

Transcripción de varios altavoces

Los algoritmos clásicos de conversión de voz a texto han evolucionado, por lo que ahora es posible transcribir reuniones, conferencias y conversaciones sociales al mismo tiempo que se identifica a los participantes y se etiquetan sus contribuciones. NVIDIA Riva permite crear transcripciones precisas en centros de llamadas y reuniones por videoconferencia, así como automatizar la toma de notas durante las interacciones entre médicos y pacientes. Con Riva, también puedes personalizar modelos y canalizaciones para satisfacer tus necesidades específicas de casos de uso.

NVIDIA Riva permite la fusión de datos de audio y visión de varios sensores
Servicios impulsados por IA para interactuar con los clientes

Asistente virtual

Los asistentes virtuales pueden interactuar con los clientes de forma casi humana, con lo que se potencian las interacciones en los centros de contacto, los altavoces inteligentes y los asistentes inteligentes integrados en el coche. Los servicios impulsados por IA, como el reconocimiento de voz, la comprensión del lenguaje, la síntesis de voz y la codificación por voz no admiten, por sí solos, un sistema de este tipo, ya que carecen de componentes clave, como el seguimiento de diálogos. Riva complementa estos servicios troncales con componentes fáciles de usar que se pueden ampliar para cualquier aplicación.

Aceleración de empresas y bibliotecas para desarrolladores

  • Partners del ecosistema
  • Bibliotecas para desarrolladores

Importantes flujos de trabajo de voz, visión y lenguaje acelerados por GPU para satisfacer los requisitos de escala empresarial.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
SimInsights
Voca.ai

Crea modelos de deep learning de última generación acelerados por GPU con bibliotecas populares de IA conversacional.

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
spaCy
RASA

Posibles usos en el sector

Plataforma de Curai para mejorar la experiencia del paciente

Aplicación basada en chat que mejora la experiencia del paciente

Mediante el procesamiento del lenguaje natural, la plataforma de Cureai permite a los pacientes comunicar sus dolencias a los médicos, acceder a su propio historial médico y ayudar a los proveedores a extraer datos de las conversaciones médicas para informar mejor sobre el tratamiento.

Square reduce las complicaciones de la IA conversacional con las GPU

Square reduce las complicaciones de la IA conversacional con las GPU

Infórmate sobre Square Assistant, un motor de IA conversacional que permite a las pequeñas empresas comunicarse con sus clientes de forma más eficiente.

Procesamiento del lenguaje natural para la prevención del fraude

Procesamiento del lenguaje natural para la prevención del fraude

Se estima que, para 2023, las empresas ahorrarán más de 200 000 millones de dólares en la lucha contra el fraude. Descubre cómo el procesamiento de lenguaje natural (PLN) puede detectar fraudes en varios canales y cómo American Express, Bank of New York Mellon y PayPal lo utilizan en sus estrategias contra el fraude.

Empieza a acelerar la inteligencia artificial hoy mismo

Entrena de forma más inteligente con el kit de herramientas NVIDIA TAO

Pon en marcha el entrenamiento en sistemas NVIDIA DGX A100

Simplifica la implementación con NVIDIA Riva

Implementa en primera línea en la plataforma NVIDIA EGX

Implementa en primera línea en la plataforma NVIDIA EGX

Crea modelos fácilmente con NVIDIA NeMo