Acelera la canalización completa, desde el reconocimiento de voz hasta la comprensión del lenguaje y la síntesis de voz
Los servicios impulsados por IA en voz, visión e idioma presentan un camino revolucionario para la conversación natural personalizada, pero se enfrentan a requisitos estrictos de precisión y latencia para la interactividad en tiempo real. Con la plataforma de SDK de IA conversacional de NVIDIA, los desarrolladores pueden crear e implementar rápidamente servicios de IA multimodales de última generación para alimentar las aplicaciones a través de una sola arquitectura unificada, lo que ofrece sistemas de baja latencia y alta precisión con poca inversión inicial.
Aprovecha los modelos de IA conversacional de NGC™ entrenados en diversos conjuntos de datos abiertos y propios durante más de 100 000 horas en sistemas NVIDIA DGX™.
Personaliza las habilidades de voz, lenguaje y visión en tu dominio mediante TAO Toolkit.
Implementa modelos optimizados en la nube, en el centro de datos y en el perímetro con un solo comando.
Acelera a escala de la canalización y ejecuta la inferencia del modelo con un límite de latencia muy por debajo de los 300 milisegundos (ms).
Ejecuta canalizaciones de IA conversacional completas con reconocimiento automático de voz (ASR) para la transcripción de audio, la comprensión del lenguaje natural (NLU) y la conversión de texto a voz (TTS) con un límite de latencia muy por debajo de los 300 ms para interacciones en tiempo real, con lo que se recupera espacio para aumentar la complejidad de la canalización sin sacrificar la experiencia del usuario.
La GPU NVIDIA A100 Tensor Core consiguió un rendimiento récord en la prueba de referencia MLPerf Training v0.7, en la que se registraron 6,53 horas por acelerador para BERT en WikiText y 0,83 minutos a escala.
Acelera 10 veces el tiempo de desarrollo utilizando modelos pre-entrenados de NVIDIA de calidad de producción y el TAO Toolkit.
Acelera el tiempo de solución con el aprendizaje de potentes modelos de lenguaje con miles de millones de parámetros de velocidad y escalabilidad inigualables.
Implementa servicios de IA conversacional optimizados para obtener el máximo rendimiento en la nube, en el centro de datos y en el perímetro.
Permite conversaciones en tiempo real a la vez que se evita la latencia de la red al procesar grandes volúmenes de datos de voz y de idioma en el perímetro.
NVIDIA DGX™ A100 incluye ocho GPU NVIDIA A100 Tensor Core, el acelerador de centro de datos más avanzado jamás realizado. La precisión Tensor Float 32 (TF32) multiplica por 20 el rendimiento de la de IA en comparación con las generaciones anteriores (sin ningún cambio de código) y un incremento de más del doble de rendimiento al aprovechar la dispersión estructural en modelos comunes de NLP. Con NVIDIA® NVLink® de tercera generación, NVIDIA NVSwitch™ de segunda generación y NVIDIA Mellanox® InfiniBand se consiguen conexiones ultraaltas y de baja latencia entre todas las GPU. Esto permite que varios sistemas A100 de DGX entrenen modelos masivos con miles de millones de parámetros a escala para ofrecer una precisión de última generación. Y gracias a NVIDIA NeMo™, un kit de herramientas de código abierto, los desarrolladores pueden crear, entrenar y optimizar modelos de IA conversacional acelerados por DGX con tan solo unas cuantas líneas de código.
NVIDIA EGX™ Platform hace posible el control de IA conversacional en tiempo real a la vez que se evita la latencia de la red al procesar grandes volúmenes de datos de voz y de idioma en el perímetro. Con NVIDIA TensorRT™, los desarrolladores pueden optimizar los modelos con inferencia y ofrecer aplicaciones de IA conversacional de baja latencia y alto rendimiento. Con el servidor de inferencia NVIDIA Triton™, los modelos se pueden implementar en la producción. TensorRT y el servidor de inferencia Triton funcionan con NVIDIA Riva, un entorno de trabajo de IA conversacional para generar e implementar canalizaciones integrales multimodales con aceleración de GPU en EGX. Desde el punto de vista técnico, Riva aplica TensorRT, configura el servidor de inferencia Triton y expone los servicios a través de una API estándar, con lo que se implementa un solo comando a través de gráficos Helm en un clúster de Kubernetes.
Los algoritmos de voz a texto clásicos han evolucionado, lo que ahora permite transcribir reuniones, conferencias y conversaciones sociales al mismo tiempo que se identifican los oradores y se etiquetan sus contribuciones. NVIDIA Riva permite la fusión de datos de audio y visión multisensor en un solo flujo de información que se utiliza con componentes avanzados de transcripción, como la diarización visual necesaria para diferenciar varias voces en tiempo real.
Los asistentes virtuales pueden interactuar con los clientes de forma casi humana, con lo que se potencian las interacciones en los centros de contacto, los altavoces inteligentes y los asistentes inteligentes integrados en el coche. Los servicios impulsados por IA como el reconocimiento de voz, la comprensión de del lenguaje, la síntesis de voz y el vocoding (codificación de voz) por sí solos no admiten dicho sistema, ya que carecen de componentes clave como el seguimiento de diálogos Riva complementa a estos servicios troncales con componentes fáciles de usar que se pueden ampliar para cualquier aplicación.
Importantes flujos de trabajo de voz, visión y lenguaje acelerados por GPU para satisfacer los requisitos de escala empresarial.
Crea modelos de deep learning de última generación acelerados por GPU con bibliotecas populares de IA conversacional.
Mediante el procesamiento del lenguaje natural, la plataforma de Cureai permite a los pacientes compartir sus circunstancias con sus médicos, acceder a su propio historial médico y ayudar a los proveedores a extraer datos de las conversaciones médicas para mejorar la información del tratamiento.
Infórmate sobre Square Assistant, un motor de IA conversacional que permite a las pequeñas empresas comunicarse con sus clientes de forma más eficiente.
Descubre cómo debe ser el recorrido de la empresa para una implementación de éxito y cómo puedes potenciar tu negocio a través del retorno de la inversión.
Stay tuned for data science news and content, delivered straight to your inbox.
Send me the latest enterprise news, announcements, and more from NVIDIA. I can unsubscribe at any time.