Plataforma de inferencia
de deep learning

Software y aceleradores de inferencia en la nube, en centros de datos, en el perímetro y en máquinas autónomas

IA más rápida. Coste más bajo.

Existe un auge de la demanda de servicios cada vez más sofisticados habilitados para la IA, como el reconocimiento de imágenes y voz, el procesamiento de lenguaje natural, la búsqueda visual y las recomendaciones personalizadas. Al mismo tiempo, los conjuntos de datos crecen, las redes se vuelven más complejas y los requisitos de latencia se hacen más estrictos para satisfacer las expectativas de los usuarios.

La plataforma de inferencia de IA NVIDIA ofrece el rendimiento, la eficiencia y la capacidad de respuesta decisivos para impulsar la próxima generación de productos y servicios de IA: en la nube, en el centro de datos, en el perímetro de la red y en los vehículos.

Libera todo el potencial de las GPU NVIDIA con NVIDIA TensorRT

TensorRT es clave para desencadenar el rendimiento óptimo de inferencia. Con NVIDIA TensorRT, puedes optimizar, validar y desplegar rápidamente redes neuronales entrenadas para inferencia. TensorRT ofrece una velocidad de transmisión hasta 40 veces mayor de latencia en tiempo real en comparación con la inferencia de solo CPU.

Inferencia de deep learning unificada, completa y escalable

Gracias a su arquitectura unificada, se pueden entrenar y optimizar redes neuronales en todos los entornos de trabajo de deep learning con NVIDIA TensorRT y luego desplegarlas para realizar inferencias en tiempo real al límite. Con los sistemas NVIDIA DGX y con NVIDIA Tesla®, NVIDIA Jetson y NVIDIA DRIVE PX, se ofrece una plataforma completa y plenamente escalable de deep learning.

Ahorro de costes a gran escala

Para mantener los servidores en el nivel máximo de productividad, los gestores de centros de datos deben hacer concesiones entre el rendimiento y la eficiencia. Un solo servidor NVIDIA Tesla P4 puede sustituir a once servidores de CPU básicos para aplicaciones y servicios de inferencia de deep learning, lo que reduce los requisitos de energía y supone un ahorro de costes de hasta el 80 %.

Soluciones de inferencia

Aprende a conseguir una IA más rápida

Observa el seminario web “Achieving Faster AI with NVIDIA GPUs and NVIDIA TensorRT” (Conseguir una IA más rápida con las GPU NVIDIA y NVIDIA TensorRT)