PLATAFORMA DE INFERENCIA DE DEEP LEARNING

Software de Inferencia y Aceleradores para Cloud, el Data Center, el Edge de la Red y las Máquinas Autónomas.

NVIDIA supera la evaluación de inferencia de IA y extiende su liderazgo en este campo

IA MÁS RÁPIDA. COSTOS MÁS BAJOS.

Hay una creciente demanda de los servicios de inteligencia artificial sofisticados, como el reconocimiento de imágenes y habla, el procesamiento de idiomas naturales, la búsqueda visual y las recomendaciones personalizadas. Al mismo tiempo, los conjuntos de datos crecen, las redes aumentan su complejidad y los requisitos de latencia se ajustan para cumplir con las expectativas de los usuarios.

La plataforma de inferencia de NVIDIA ofrece el rendimiento, la eficiencia y la capacidad de respuesta críticas para potenciar la próxima generación de servicios y productos de IA, ya sea en cloud, en el data center, en edge de la red y en las máquinas autónomas.

Descargar la Descripción Técnica General de la Inferencia
Simplifica la Implementación con Servidor de Inferencia NVIDIA Triton

LIBERA TODO EL POTENCIAL DE LAS GPU DE NVIDIA CON NVIDIA TensorRT

NVIDIA® TensorRT™ es la plataforma de inferencia de alto rendimiento clave para desbloquear la potencia de las GPU NVIDIA Tensor Core. Ofrece un rendimiento 40 veces más alto y minimiza la latencia, en comparación con las plataformas que solo tienen CPU. Gracias a TensorRT, puedes comenzar a usar cualquier marco de trabajo y optimizar, validar e implementar rápidamente redes neuronales entrenadas en producción.

SIMPLIFICA LA IMPLEMENTACIÓN CON LO SERVIDOR DE INFERENCIA NVIDIA TRITON

Lo Servidor de Inferencia NVIDIA Triton, antes conocido como Servidor de Inferencia TensorRT, es un software de código abierto que simplifica la implementación de modelos de deep learning en producción. Lo Servidor de Inferencia Triton permite a los equipos implementar modelos de IA entrenados desde cualquier framework (TensorFlow, PyTorch, TensorRT Plan, Caffe, MXNet o marcos personalizados) desde el almacenamiento local, Google Cloud Platform o AWS S3, en cualquier infraestructura de GPU o CPU. Ejecuta varios modelos al mismo tiempo con una sola GPU para maximizar la utilización y se integra con Kubernetes para la organización, las métricas y la escalabilidad automática.

INFERENCIA DE DEEP LEARNING CON ESCALABILIDAD Y POTENCIA

Con una arquitectura unificada, las redes neuronales de cada framework de deep learning pueden entrenarse, optimizarse con NVIDIA TensorRT, y, luego, implementarse para lograr la inferencia en tiempo real en el edge. NVIDIA ofrece una plataforma de deep learning totalmente escalable y de un extremo a otro, como se muestra en la suite de referencia MLPerf, gracias a los sistemas NVIDIA DGX™ systems, NVIDIA Tesla®, NVIDIA Jetson™, y NVIDIA DRIVE.

DISFRUTA DE ENORMES AHORROS EN LOS COSTOS

Para mantener la máxima productividad de los servidores, los gerentes de data centers deben equilibrar el rendimiento y la eficiencia. Un solo servidor NVIDIA T4 puede reemplazar varios servidores de CPU genéricos para los servicios y las aplicaciones de inferencia de deep learning, lo que reduce los requisitos de energía y permite ahorrar en los costos operativos y de adquisición.

SOLUCIONES DE INFERENCIA

ACELERA LA IA

Aprovecha toda la información de los webinars sobre la inferencia de deep learning de NVIDIA