Plataforma De Inferencia De Deep Learning Software de Inferencia y Aceleradores para Cloud, el Data Center, el Edge de la Red y las Máquinas Autónomas.
Libera Todo El Potencial De Las GPU De NVIDIA Con NVIDIA TensorRT NVIDIA® TensorRT™ es la plataforma de inferencia de alto rendimiento clave para desbloquear la potencia de las GPU NVIDIA Tensor Core. Ofrece un rendimiento 40 veces más alto y minimiza la latencia, en comparación con las plataformas que solo tienen CPU. Gracias a TensorRT, puedes comenzar a usar cualquier marco de trabajo y optimizar, validar e implementar rápidamente redes neuronales entrenadas en producción. TensorRT también está disponible en el catálogo de NVIDIA NGC.
Simplifica La Implementación Con Lo Servidor De Inferencia Nvidia Triton Lo Servidor de Inferencia NVIDIA Triton, antes conocido como Servidor de Inferencia TensorRT, es un software de código abierto que simplifica la implementación de modelos de deep learning en producción. Lo Servidor de Inferencia Triton permite a los equipos implementar modelos de IA entrenados desde cualquier framework (TensorFlow, PyTorch, TensorRT Plan, Caffe, MXNet o marcos personalizados) desde el almacenamiento local, Google Cloud Platform o AWS S3, en cualquier infraestructura de GPU o CPU. Ejecuta varios modelos al mismo tiempo con una sola GPU para maximizar la utilización y se integra con Kubernetes para la organización, las métricas y la escalabilidad automática. Más Información
Inferencia De Deep Learning Con Escalabilidad Y Potencia Con una arquitectura unificada, las redes neuronales de cada framework de deep learning pueden entrenarse, optimizarse con NVIDIA TensorRT, y, luego, implementarse para lograr la inferencia en tiempo real en el edge. NVIDIA ofrece una plataforma de deep learning totalmente escalable y de un extremo a otro, como se muestra en la suite de referencia MLPerf, gracias a los sistemas NVIDIA DGX™ systems, NVIDIA Tesla®, NVIDIA Jetson™, y NVIDIA DRIVE.
Disfruta De Enormes Ahorros En Los Costos Para mantener la máxima productividad de los servidores, los gerentes de data centers deben equilibrar el rendimiento y la eficiencia. Un solo servidor NVIDIA T4 puede reemplazar varios servidores de CPU genéricos para los servicios y las aplicaciones de inferencia de deep learning, lo que reduce los requisitos de energía y permite ahorrar en los costos operativos y de adquisición.