Los servicios impulsados por IA en el habla, la visión y el lenguaje presentan un camino revolucionario para la conversación natural personalizada, pero enfrentan requisitos estrictos de precisión y latencia para la interactividad en tiempo real. Con el SDK de IA conversacional de NVIDIA, los desarrolladores pueden crear e implementar rápidamente servicios de IA multimodales de última generación para impulsar aplicaciones en una única arquitectura unificada, entregando sistemas de baja latencia y alta precisión con poca inversión inicial.
Aproveche los modelos de IA conversacional de NGC™ que están entrenados en varios conjuntos de datos abiertos y patentados durante más de 100.000 horas en sistemas NVIDIA DGX™.
Personalice las habilidades de habla, lenguaje y visión en su dominio utilizando el Kit de Herramientas de Transfer Learning.
Implemente modelos optimizados en el cloud, en el data center y en el edge con un solo comando.
Acelere a escala de canalización y ejecute la inferencia del modelo muy por debajo del límite de latencia de 300 milisegundos (ms).
Ejecute pipelines de inteligencia artificial conversacionales completas que consisten en reconocimiento automático de voz (ASR) para transcripción de audio, comprensión del lenguaje natural (NLU) y conversión de texto a voz (TTS) en una latencia muy por debajo de los 300ms para interacciones en tiempo real, liberando espacio para aumentar la complejidad de la canalización sin sacrificar la experiencia del usuario.
La GPU NVIDIA A100 Tensor Core entregó un rendimiento récord en el benchmark MLPerf Training v0.7, registrando 6,53 horas por acelerador para BERT en WikiText y 0,83 minutos a escala.
Acelere el tiempo de desarrollo en 10 veces utilizando modelos previamente entrenados de NVIDIA de calidad de producción y Kit de Herramientas de Transfer Learning.
Acelere el tiempo de solución aprendiendo potentes modelos de lenguaje de mil millones de parámetros con una velocidad y escalabilidad inigualables.
Implemente servicios optimizados de inteligencia artificial conversacional para obtener el máximo rendimiento en el cloud, en el data center y en el edge.
Habilite la conversación en tiempo real mientras evita la latencia de la red procesando datos de voz y lenguaje de alto volumen en el edge.
NVIDIA DGX™ A100 cuenta con ocho GPU NVIDIA A100 Tensor Core, el acelerador de centro de datos más avanzado jamás creado. La precisión de Tensor Float 32 (TF32) ofrece una mejora del rendimiento de la IA 20 veces superior a las generaciones anteriores, sin ningún cambio de código, y un aumento de rendimiento 2 veces mayor al aprovechar la escasez estructural en los modelos comunes de PNL. NVIDIA® NVLink® de tercera generación, NVIDIA NVSwitch™ de segunda generación y NVIDIA Mellanox® InfiniBand permiten conexiones de ancho de banda ultra alto y baja latencia entre todas las GPU. Esto permite que múltiples sistemas DGX A100 entrenen modelos masivos de mil millones de parámetros a escala para brindar una precisión de vanguardia. Y con NVIDIA NeMo™, un conjunto de herramientas de código abierto, los desarrolladores pueden crear, entrenar y ajustar modelos de IA conversacional acelerados por DGX con solo unas pocas líneas de código.
La Plataforma NVIDIA EGX™ hace posible impulsar la inteligencia artificial conversacional en tiempo real y, al mismo tiempo, evitar la latencia de la red mediante el procesamiento de datos de voz y lenguaje de alto volumen en el borde. Con NVIDIA TensorRT™, los desarrolladores pueden optimizar modelos para inferencia y ofrecer aplicaciones de IA conversacionales con baja latencia y alto rendimiento. Con el Servidor de Inferencia NVIDIA Triton™, los modelos se pueden implementar en producción. TensorRT y el Servidor de Inferencia Triton funcionan con NVIDIA Riva, un framework de aplicación para IA conversacional, para construir e implementar canalizaciones multimodales aceleradas por GPU de extremo a extremo en EGX. De manera interna, Riva aplica TensorRT, configura el servidor de inferencia Triton y expone los servicios a través de una API estándar, implementando con un solo comando a través de gráficos de Helm en un clúster de Kubernetes.
Los algoritmos clásicos de conversión de voz a texto han evolucionado y ahora es posible transcribir reuniones, conferencias y conversaciones sociales al mismo tiempo que se identifica a los oradores y se etiquetan sus contribuciones. NVIDIA Riva permite la fusión de datos de visión y audio multisensor en un solo flujo de información que se utiliza para componentes de transcripción avanzados, como la diarización visual necesaria para diferenciar varias voces en tiempo real.
Los asistentes virtuales pueden interactuar con los clientes de una manera casi humana, potenciando las interacciones en los centros de contacto, altavoces inteligentes y asistentes inteligentes en el automóvil. Los servicios impulsados por IA como el reconocimiento de voz, la comprensión del lenguaje, la síntesis de voz y la codificación de voz por sí solos no pueden admitir un sistema de este tipo, ya que carecen de componentes clave como el seguimiento de diálogos. Riva complementa estos servicios troncales con componentes fáciles de usar que se pueden ampliar para cualquier aplicación.
Acelere los workflows de voz, visión e idiomas superiores por GPU para cumplir con los requisitos a escala empresarial.
Cree modelos de deep learning de vanguardia y acelerados por GPU con bibliotecas de IA conversacionales populares.
Utilizando el procesamiento del lenguaje natural, la plataforma de Cureai permite a los pacientes compartir sus condiciones con sus médicos, acceder a su propio historial médico y ayudar a los proveedores a extraer datos de las conversaciones médicas para informar mejor el tratamiento.
Obtenga más información sobre Square Assistant, un motor de inteligencia artificial conversacional que permite a las pequeñas empresas comunicarse con sus clientes de manera más eficiente.
Descubra cómo debería ser el recorrido empresarial para una implementación exitosa y cómo habilitar su negocio a través del ROI.
Stay tuned for data science news and content, delivered straight to your inbox.
Envíeme las últimas noticias empresariales, anuncios y más de NVIDIA. Puedo darme de baja en cualquier momento.