NVIDIA TESLA V100 TENSOR CORE GPU

A GPU de data center mais avançada já criada

Bem-Vindo à Era da AI.

Encontrar as idéias escondidas nos oceanos de dados pode transformar setores inteiros, desde uma terapia personalizada contra o câncer até ajudar assistentes pessoais virtuais a conversar naturalmente e prever o próximo grande furacão.


A NVIDIA® V100 Tensor Core é a GPU de data center mais avançada já criada para acelerar AI, high performance computing (HPC), ciência de dados e gráficos. É alimentado pela arquitetura NVIDIA Volta, em configurações de 16 e 32GB e oferece o desempenho de até 32 CPUs em uma única GPU. Agora, cientistas, pesquisadores e engenheiros de dados podem gastar menos tempo otimizando o uso da memória e mais tempo projetando a próxima inovação em AI.

Execute cargas de trabalho de AI e HPC em um ambiente virtual para melhorar a segurança e a capacidade de gerenciamento usando o software NVIDIA Virtual Compute Server (vComputeServer)

AI Training

Treinamento de AI

De reconhecimento de fala a treinamento de assistentes pessoais virtuais e ensino de veículos autônomos a dirigir, os cientistas de dados estão assumindo desafios cada vez mais complexos com a AI. A solução desses tipos de problemas requer o treinamento de modelos de Deep Learning que estão aumentando exponencialmente em complexidade, em um curto período de tempo.

Com 640 Tensor Cores, a V100 é a primeira GPU do mundo a romper a barreira dos 100 teraFLOPS (TFLOPS) de desempenho em deep learning. A próxima geração do NVIDIA NVLink conecta várias GPUs V100 em até 300 GB/s para criar os servidores de processamento mais potentes do mundo. Os modelos de AI que usavam semanas de recursos de processamento em sistemas anteriores agora podem ser treinados em poucos dias. Com essa redução significativa no tempo de treinamento, um mundo totalmente novo de problemas agora será solucionado com a AI.

VEJA COMO VOCÊ PODE ACELERAR SEUS MODELOS DE AI COM PRECISÃO MISTA EM TENSOR CORES

AI Inference

Inferência de AI

Para se conectar com as informações, os serviços e os produtos mais relevantes, as empresas de hiperescala começaram a explorar a AI. No entanto, acompanhar a demanda do usuário é um grande desafio. Por exemplo, a maior empresa de hiperescala do mundo estimou recentemente que precisaria dobrar sua capacidade de data center se todos os usuários gastassem apenas três minutos por dia usando seu serviço de reconhecimento de fala.  

A V100 foi projetada para oferecer o máximo desempenho em racks de servidores de hiperescala existentes. Com a AI em seu núcleo, a GPU V100 oferece um desempenho de inferência 47 vezes maior que um servidor com CPU. Esse grande salto na taxa de transferência e eficiência tornará o dimensionamento dos serviços de AI mais práticos.

1 NVIDIA GPU Node Replaces up to 54 CPU Nodes

Computação de alto desempenho (HPC)

O HPC é um pilar fundamental da ciência moderna. Da previsão do clima à descoberta de medicamentos e novas fontes de energia, os pesquisadores usam grandes sistemas de computação para simular e prever nosso mundo. A AI amplia o HPC tradicional, permitindo que os pesquisadores analisem grandes volumes de dados para obter insights rápidos, para os quais a simulação sozinha não consegue prever totalmente o mundo real.

A V100 foi projetada para a convergência de AI e HPC. Ela oferece uma plataforma para sistemas de HPC terem sucesso na ciência computacional para simulação científica e ciência de dados para encontrar insights nos dados. Ao juntar os núcleos NVIDIA CUDA® e os Tensor Cores em uma arquitetura unificada, um único servidor com GPUs V100 pode substituir centenas de servidores somente com CPUs por meio de HPC tradicionais e cargas de trabalho de AI. Todos os pesquisadores e engenheiros podem agora lidar com um supercomputador de AI para realizar seus trabalhos mais desafiadores.

GPUs PARA DATA CENTER

NVIDIA Tesla V100 for NVLink

NVIDIA TESLA V100 PARA NVLINK

Melhor desempenho para deep learning.

NVIDIA Tesla V100 for PCIe

NVIDIA TESLA V100 PARA PCle

Maior versatilidade para todas as cargas de trabalho.

Especificações NVIDIA Tesla V100

 

Tesla V100 for NVLink

Tesla V100 for PCIe

Tesla V100S for PCIe

PERFORMANCE
with NVIDIA GPU Boost

Double-Precision
7.8 teraFLOPS

Single-Precision
15.7 teraFLOPS

Deep Learning
125 teraFLOPS

Double-Precision
7 teraFLOPS

Single-Precision
14 teraFLOPS

Deep Learning
112 teraFLOPS

Double-Precision
8.2 teraFLOPS

Single-Precision
16.4 teraFLOPS

Deep Learning
130 teraFLOPS

INTERCONNECT BANDWIDTH
Bi-Directional

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORY
CoWoS Stacked HBM2

CAPACITY
32/16 GB HBM2

BANDWIDTH
900 GB/s

CAPACITY
32 GB HBM2

BANDWIDTH
1134 GB/s

POWER
Max Consumption


300 WATTS


250 WATTS

Faça um teste gratuito

Os Aceleradores de GPU Mais Rápidos do Mundo Para HPC e Deep Learning.

ONDE COMPRAR NVIDIA

Encontre um parceiro de processamento acelerado da NVIDIA pela rede de parceiros NVIDIA (NPN - NVIDIA Partner Network).