NVIDIA TESLA V100 TENSOR CORE GPU

A GPU de data center mais avançada já criada

Welcome to the Era of AI.

Finding the insights hidden in oceans of data can transform entire industries, from personalized cancer therapy to helping virtual personal assistants converse naturally and predicting the next big hurricane. 


NVIDIA® V100 Tensor Core is the most advanced data center GPU ever built to accelerate AI, high performance computing (HPC), data science and graphics. It’s powered by NVIDIA Volta architecture, comes in 16 and 32GB configurations, and offers the performance of up to 32 CPUs in a single GPU. Data scientists, researchers, and engineers can now spend less time optimizing memory usage and more time designing the next AI breakthrough.

Execute cargas de trabalho de AI e HPC em um ambiente virtual para melhorar a segurança e a capacidade de gerenciamento usando o software NVIDIA Virtual Compute Server (vComputeServer)

AI Training

Treinamento de AI

De reconhecimento de fala a treinamento de assistentes pessoais virtuais e ensino de carros autônomos a dirigir, os cientistas de dados estão assumindo desafios cada vez mais complexos com a AI. A solução desses tipos de problemas requer o treinamento de modelos de Deep Learning que estão aumentando exponencialmente em complexidade, em um período prático.

Com 640 Tensor Cores a V100 é a primeira GPU do mundo a romper a barreira dos 100 teraFLOPS (TFLOPS) de desempenho em deep learning. A próxima geração do NVIDIA NVLink conecta várias GPUs V100 em até 300 GB/s para criar os servidores de processamento mais potentes do mundo. Os modelos de AI que usavam semanas de recursos de processamento em sistemas anteriores agora podem ser treinados em poucos dias. Com essa redução significativa no tempo de treinamento, um mundo totalmente novo de problemas agora será solucionado com a AI.

VEJA COMO VOCÊ PODE ACELERAR SEUS MODELOS DE AI COM PRECISÃO MISTA EM TENSOR CORES

AI Inference

Inferência de AI

Para se conectar com as informações, os serviços e os produtos mais relevantes, as empresas de hiperescala começaram a explorar a AI. No entanto, acompanhar a demanda do usuário é um grande desafio. Por exemplo, a maior empresa de hiperescala do mundo estimou recentemente que precisaria dobrar sua capacidade de data center se todos os usuários gastassem apenas três minutos por dia usando seu serviço de reconhecimento de fala.  

A V100 foi projetada para oferecer o máximo desempenho em racks de servidores de hiperescala existentes. Com a AI no seu núcleo, a GPU V100 oferece um desempenho de inferência 47X maior que um servidor com CPU. Esse grande salto na taxa de transferência e eficiência tornará o dimensionamento dos serviços de AI mais práticos.

1 NVIDIA GPU Node Replaces up to 54 CPU Nodes

Computação de alto desempenho (HPC)

O HPC é um pilar fundamental da ciência moderna. Da previsão do clima à descoberta de medicamentos e novas fontes de energia, os pesquisadores usam grandes sistemas de computação para simular e prever nosso mundo. A AI amplia o HPC tradicional, permitindo que os pesquisadores analisem grandes volumes de dados para obter insights rápidos, para os quais a simulação sozinha não consegue prever totalmente o mundo real.

A V100 foi projetada para a convergência de AI e HPC. Ela oferece uma plataforma para sistemas de HPC terem sucesso na ciência computacional para simulação científica e ciência de dados para encontrar insights nos dados. Ao juntar os núcleos NVIDIA CUDA® e os Tensor Cores em uma arquitetura unificada, um único servidor com GPUs V100 pode substituir centenas de servidores somente com CPUs por meio de HPC tradicionais e cargas de trabalho de AI. Todos os pesquisadores e engenheiros podem agora lidar com um supercomputador de AI para realizar seus trabalhos mais desafiadores.

DATA CENTER GPUs

NVIDIA Tesla V100 for NVLink

NVIDIA TESLA V100 FOR NVLINK

Ultimate performance for deep learning.

NVIDIA Tesla V100 for PCIe

NVIDIA TESLA V100 FOR PCle

Highest versatility for all workloads.

NVIDIA Tesla V100 Specifications

 

Tesla V100 for NVLink

Tesla V100 for PCIe

Tesla V100S for PCIe

PERFORMANCE
with NVIDIA GPU Boost

Double-Precision
7.8 teraFLOPS

Single-Precision
15.7 teraFLOPS

Deep Learning
125 teraFLOPS

Double-Precision
7 teraFLOPS

Single-Precision
14 teraFLOPS

Deep Learning
112 teraFLOPS

Double-Precision
8.2 teraFLOPS

Single-Precision
16.4 teraFLOPS

Deep Learning
130 teraFLOPS

INTERCONNECT BANDWIDTH
Bi-Directional

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORY
CoWoS Stacked HBM2

CAPACITY
32/16 GB HBM2

BANDWIDTH
900 GB/s

CAPACITY
32 GB HBM2

BANDWIDTH
1134 GB/s

POWER
Max Consumption


300 WATTS


250 WATTS

Faça um teste gratuito

Os Aceleradores de GPU Mais Rápidos do Mundo Para HPC e Deep Learning.

ONDE COMPRAR NVIDIA

Encontre um parceiro de processamento acelerado da NVIDIA pela rede de parceiros NVIDIA (NPN, NVIDIA Partner Network).