O NVIDIA TensorRT™ é um SDK para inferência de deep learning de alto desempenho, que inclui um otimizador de inferência e tempo de execução deep learning, que oferece baixa latência e alta taxa de transferência para aplicações de inferência. Ele oferece um rendimento muito maior e, ao mesmo tempo, minimiza a latência em comparação com plataformas apenas com CPU. Usando o TensorRT, você pode começar a partir de qualquer framework e rapidamente otimizar, validar e implantar redes neurais treinadas na produção.
Saiba Mais sobre o NVIDIA TensorRT >