NVIDIA TESLA V100 TENSOR CORE GPU

A GPU de data center mais avançada já criada

Bem-vindo à era da AI

Encontrar as percepções escondidas em oceanos de dados pode transformar setores inteiros, desde a terapia personalizada do tratamento de câncer, passando à naturalização dos diálogos dos assistentes pessoais virtuais até a previsão do próximo grande furacão.


A NVIDIA ® Tesla®V100 é a placa de vídeo de data center mais avançada já criada para acelerar AI, HPC e gráficos. Com arquitetura NVIDIA Volta, ela vem em configurações de 16 e 32 GB, além de oferecer o desempenho de até 100 CPUs em uma única placa de vídeo. Cientistas de dados, pesquisadores e engenheiros agora podem passar menos tempo otimizando o uso da memória e mais tempo projetando sua próxima inovação de AI.

AI Training

Treinamento de AI

Do reconhecimento de fala e treinamento de assistentes pessoais virtuais até o ensino de condução para carros autônomos, os cientistas de dados estão enfrentando desafios cada vez mais complexos com AI. Para solucionar esses tipos de problemas, é necessário o treinamento com agilidade de modelos de deep learning que estão crescendo exponencialmente em complexidade.

Com 640 Tensor Cores a Tesla V100 é a primeira GPU do mundo a ultrapassar a barreira de 100 teraFLOPS (TFLOPS) no desempenho de deep learning.A próxima geração do NVIDIA NVLink conecta várias GPUs V100 em até 300 GB/s para criar os servidores de computação mais poderosos do mundo. Modelos de AI que consumiriam semanas de recursos computacionais em sistemas anteriores agora podem ser treinados dentro de poucos dias.

AI Inference

Inferência de AI

Para nos conectar com as informações, serviços e produtos mais relevantes, empresas de hiperescala começaram a explorar a AI. Entretanto, acompanhar a demanda dos usuários é um tremendo desafio Por exemplo, a maior empresa de hiperescala do mundo recentemente estimou que precisaria dobrar sua capacidade de data centers se todo usuário passasse apenas três minutos por dia usando seu serviço de reconhecimento de fala.
 

A Tesla V100 foi projetada para oferecer o máximo de desempenho nas racks de servidores de hiperescala existentes. Sendo alimentada por AI, a GPU Tesla V100 oferece um desempenho de inferência 47 vezes mais alto que um servidor de CPU. Esse grande salto de rendimento e eficiência tornará a escalabilidade horizontal de serviços de AI mais prática.

High Performance Computing

Computação de alto desempenho (HPC)

A HPC é um pilar fundamental da ciência moderna. Desde a previsão meteorológica e a descoberta de medicamentos até a identificação de novas fontes de energia, os pesquisadores utilizam grandes sistemas de computação para simular e prever o nosso mundo. A AI expande a HPC tradicional ao permitir que os pesquisadores analisem grandes volumes de dados para obter percepções rápidas em que as simulações sozinhas não são capazes de prever totalmente o mundo real.

A Tesla V100 é projetada para a convergência entre AI e HPC. Ela oferece uma plataforma para sistemas de HPC se destacarem tanto na ciência computacional para simulações científicas quanto na ciência de dados para a exploração de percepções em dados. Unindo os núcleos NVIDIA CUDA Tensor Cores em uma arquitetura unificada, um único servidor com placas de vídeo Tesla V100 pode substituir centenas de servidores de commodity apenas com CPU para cargas de trabalho tradicionais de HPC e AI. Agora, todo pesquisador e engenheiro pode ter um supercomputador de AI para lidar com seus trabalhos mais desafiadores.

GPU DE DATA CENTER

Data Center Tesla V100 NVLink

NVIDIA TESLA V100 PARA NVLINK

Desempenho ideal para deep learning.

Data Center Tesla V100 PCle

NVIDIA TESLA V100 para PCle

Maior versatilidade para todas as cargas de trabalho.

Especificações da NVIDIA Tesla V100

 

Tesla V100 for NVLink

Tesla V100 for PCIe

PERFORMANCE
with NVIDIA GPU Boost

Double-Precision
7.8 teraFLOPS

Single-Precision
15.7 teraFLOPS

Deep Learning
125 teraFLOPS

Double-Precision
7 teraFLOPS

Single-Precision
14 teraFLOPS

Deep Learning
112 teraFLOPS

INTERCONNECT BANDWIDTH
Bi-Directional

NVLink
300 GB/s

PCIe
32 GB/s

MEMORY
CoWoS Stacked HBM2

CAPACITY
32/16 GB HBM2

BANDWIDTH
900 GB/s

POWER
Max Consumption


300 WATTS


250 WATTS

Faça um teste gratuito

Os aceleradores de placa de vídeo mais rápidos do mundo para HPC e|
deep learning.

ONDE COMPRAR NVIDIA

Encontre um parceiro de computação acelerado da NVIDIA pela rede de parceiros NVIDIA (NPN, NVIDIA Partner Network)