A GPU de data center mais avançada já criada
Encontrar as idéias escondidas nos oceanos de dados pode transformar setores inteiros, desde uma terapia personalizada contra o câncer até ajudar assistentes pessoais virtuais a conversar naturalmente e prever o próximo grande furacão.
A NVIDIA® V100 Tensor Core é a GPU de data center mais avançada já criada para acelerar AI, high performance computing (HPC), ciência de dados e gráficos. É alimentado pela arquitetura NVIDIA Volta, em configurações de 16 e 32GB e oferece o desempenho de até 32 CPUs em uma única GPU. Agora, cientistas, pesquisadores e engenheiros de dados podem gastar menos tempo otimizando o uso da memória e mais tempo projetando a próxima inovação em AI.
Execute cargas de trabalho de AI e HPC em um ambiente virtual para melhorar a segurança e a capacidade de gerenciamento usando o software NVIDIA Virtual Compute Server (vCS)
De reconhecimento de fala a treinamento de assistentes pessoais virtuais e ensino de veículos autônomos a dirigir, os cientistas de dados estão assumindo desafios cada vez mais complexos com a AI. A solução desses tipos de problemas requer o treinamento de modelos de Deep Learning que estão aumentando exponencialmente em complexidade, em um curto período de tempo.
Com 640 Tensor Cores, a V100 é a primeira GPU do mundo a romper a barreira dos 100 teraFLOPS (TFLOPS) de desempenho em deep learning. A próxima geração do NVIDIA NVLink conecta várias GPUs V100 em até 300 GB/s para criar os servidores de processamento mais potentes do mundo. Os modelos de AI que usavam semanas de recursos de processamento em sistemas anteriores agora podem ser treinados em poucos dias. Com essa redução significativa no tempo de treinamento, um mundo totalmente novo de problemas agora será solucionado com a AI.
Para se conectar com as informações, os serviços e os produtos mais relevantes, as empresas de hiperescala começaram a explorar a AI. No entanto, acompanhar a demanda do usuário é um grande desafio. Por exemplo, a maior empresa de hiperescala do mundo estimou recentemente que precisaria dobrar sua capacidade de data center se todos os usuários gastassem apenas três minutos por dia usando seu serviço de reconhecimento de fala.
A V100 foi projetada para oferecer o máximo desempenho em racks de servidores de hiperescala existentes. Com a AI em seu núcleo, a GPU V100 oferece um desempenho de inferência 47 vezes maior que um servidor com CPU. Esse grande salto na taxa de transferência e eficiência tornará o dimensionamento dos serviços de AI mais práticos.
O HPC é um pilar fundamental da ciência moderna. Da previsão do clima à descoberta de medicamentos e novas fontes de energia, os pesquisadores usam grandes sistemas de computação para simular e prever nosso mundo. A AI amplia o HPC tradicional, permitindo que os pesquisadores analisem grandes volumes de dados para obter insights rápidos, para os quais a simulação sozinha não consegue prever totalmente o mundo real. A V100 foi projetada para a convergência de AI e HPC. Ela oferece uma plataforma para sistemas de HPC terem sucesso na ciência computacional para simulação científica e ciência de dados para encontrar insights nos dados. Ao juntar os núcleos NVIDIA CUDA® e os Tensor Cores em uma arquitetura unificada, um único servidor com GPUs V100 pode substituir centenas de servidores somente com CPUs por meio de HPC tradicionais e cargas de trabalho de AI. Todos os pesquisadores e engenheiros podem agora lidar com um supercomputador de AI para realizar seus trabalhos mais desafiadores.
Melhor desempenho para deep learning.
Maior versatilidade para todas as cargas de trabalho.
Double-Precision 7.8 teraFLOPS
Single-Precision 15.7 teraFLOPS
Deep Learning 125 teraFLOPS
Double-Precision 7 teraFLOPS
Single-Precision 14 teraFLOPS
Deep Learning 112 teraFLOPS
Double-Precision 8.2 teraFLOPS
Single-Precision 16.4 teraFLOPS
Deep Learning 130 teraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACITY 32/16 GB HBM2
BANDWIDTH 900 GB/s
CAPACITY 32 GB HBM2
BANDWIDTH 1134 GB/s
300 WATTS
250 WATTS
Os Aceleradores de GPU Mais Rápidos do Mundo Para HPC e Deep Learning.
Encontre um parceiro de processamento acelerado da NVIDIA pela rede de parceiros NVIDIA (NPN - NVIDIA Partner Network).