PLATAFORMA DE INFERÊNCIA PARA DEEP LEARNING

Softwares e Aceleradores de Inferência para Cloud, Data Center, Edge e Máquinas Autônomas

NVIDIA ganha novo benchmark de inferência, ampliando sua liderança em AI

AI MAIS RÁPIDA. CUSTOS MAIS BAIXOS.

Atualmente há uma demanda crescente por serviços habilitados para AI como reconhecimento de imagem e de fala, processamento de idiomas, pesquisa visual e recomendações personalizadas. Ao mesmo tempo, os conjuntos de dados estão crescendo, as redes estão ficando mais complexas e os requisitos de latência estão aumentando para atender às expectativas dos usuários.

A plataforma de inferência da NVIDIA oferece desempenho, eficiência e capacidade de resposta essenciais para impulsionar a nova geração de produtos e serviços de AI no cloud, no datacenter, no edge (na ponta) da rede e em máquinas autônomas.

Inscreva-se para Fazer Download da Visão Geral Técnica da Inferência

LIBERTE TODO O POTENCIAL DAS GPUs DA NVIDIA COM A NVIDIA TensorRT

A TensorRT é uma plataforma de inferência de alto desempenho que é a chave para liberar todo o poder das GPUs NVIDIA Tensor Core. Oferece taxa de transferência até 40X mais alta e minimiza a latência quando comparada a plataformas apenas com CPU. Usando a TensorRT, você pode começar de qualquer framework e otimizar, validar e implantar rapidamente redes neurais treinadas na linha de produção.

INFERÊNCIA EM DEEP LEARNING UNIFICADA, ESCALONÁVEL E DE PONTA A PONTA

Com uma arquitetura unificada, redes neurais em cada framework de deep learning podem ser treinadas e otimizadas com a NVIDIA TensorRT e, em seguida, implantadas para inferência em tempo real no edge. Com os sistemas NVIDIA DGX™ , NVIDIA Tesla®, NVIDIA Jetson™ e NVIDIA DRIVE, a NVIDIA oferece uma plataforma em deep learning totalmente escalonável e de ponta a ponta.

deep-learning-ai-inference-maximize-gpu-utilization-625-u

MAXIMIZE GPU UTILIZATION FOR DATA CENTER INFERENCE

Easily incorporate state-of-the-art AI in your solutions with NVIDIA Inference Server, a microservice for inference that maximizes GPU acceleration and hosts all popular AI model types. Deploy inference faster with this production-ready inference server that leverages the lightning-fast performance of NVIDIA Tensor Core GPUs and integrates seamlessly into DevOps deployment models, scaling on demand with autoscalers such as Kubernetes for NVIDIA GPUs.

ECONOMIA DE CUSTOS EM ESCALA MASSIVA

Para manter os servidores em sua produtividade máxima, os gerentes de data center devem alternar entre desempenho e eficiência. Um único servidor NVIDIA Tesla T4 pode substituir vários servidores com CPU por aplicativos e serviços de inferência em deep learning, reduzindo gastos com energia e proporcionando economia tanto em aquisição quanto em custos operacionais.

ECONOMIA DE CUSTOS EM ESCALA MASSIVA

Para manter os servidores em sua produtividade máxima, os gerentes de data center devem alternar entre desempenho e eficiência. Um único servidor NVIDIA Tesla T4 pode substituir vários servidores com CPU por aplicativos e serviços de inferência em deep learning, reduzindo gastos com energia e proporcionando economia tanto em aquisição quanto em custos operacionais.

SOLUÇÕES DE INFERÊNCIA

APRENDA COMO ALCANÇAR UMA AI MAIS RÁPIDA

Assista a série de webinars da NVIDIA sobre inferência em deep learning.