La plataforma de inferencia de NVIDIA ofrece el rendimiento, la eficiencia y la capacidad de respuesta decisivos para impulsar la próxima generación de productos y servicios de IA: en la nube, en el centro de datos, en el perímetro de la red y en las máquinas autónomas.
NVIDIA Triton™ Inference Server es un software de código abierto para una inferencia de IA rápida y escalable en producción. Triton permite a los equipos implementar modelos de IA entrenados desde cualquier entorno de trabajo (TensorFlow, PyTorch, XgBoost, Python y otros) en cualquier infraestructura basada en GPU o CPU. Maximiza la utilización de GPU y CPU, ofrece un alto rendimiento con baja latencia y se integra con Kubernetes para organización, métricas y autocalado