GPU NVIDIA V100 TENSOR CORE

La primera GPU Tensor Core

Da la bienvenida a la era de la IA.

Encontrar los conocimientos ocultos en océanos de datos puede transformar industrias enteras, desde la terapia personalizada contra el cáncer hasta ayudar a los asistentes personales virtuales a conversar de forma natural y predecir el próximo gran huracán.


NVIDIA® V100 Tensor Core es la GPU para centros de datos más avanzada. Acelera el rendimiento de la IA, la computación de alto rendimiento (HPC), la ciencia de datos y los gráficos. Cuenta con la tecnología de la arquitectura NVIDIA Volta, viene en configuraciones de 16 y 32 GB y ofrece el rendimiento de hasta 32 CPU en una sola GPU. Los científicos de datos, los investigadores y los ingenieros ahora pueden dedicar menos tiempo a optimizar el uso de la memoria y más a diseñar las próximas innovaciones revolucionarias en IA.

Ejecuta cargas de trabajo de IA y HPC en un entorno virtual para mejorar la seguridad y la capacidad de administración mediante el software NVIDIA Virtual Compute Server (vCS)

Rendimiento de formación 32 veces más rápido que con una CPU

Formación de ResNet-50, conjunto de datos: ImageNet2012, BS=256 | Comparación de NVIDIA V100: servidor NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, container=19.11-py3, precisión mixta, rendimiento: 1,525 imágenes/s | Comparación de Intel: Supermicro SYS-1029GQ-TRT, 1 socket Intel Gold 6240 a 2 GHz/3,9 Hz con Turbo, TensorFlow 0.18, FP32 (única precisión disponible), rendimiento: 48 imágenes/s

Entrenamiento de IA

Del reconocimiento de voz al entrenamiento de asistentes personales virtuales y la enseñanza de conducción autónoma de coches, los científicos de datos se enfrentan a retos cada vez más complejos con la IA. La solución de este tipo de problemas requiere el entrenamiento de modelos de aprendizaje profundo exponencialmente más complejos en periodos de tiempo realistas.

Con 640 Tensor Cores, V100 es la primera GPU del mundo en superar la barrera de los 100 teraFLOPS (TFLOPS) de rendimiento en aprendizaje profundo. La nueva generación de NVIDIA NVLink™ conecta varias GPU V100 a una velocidad de hasta 300 GB/s para crear los servidores de computación más potentes del mundo. Los modelos de IA que consumirían semanas de recursos informáticos en sistemas anteriores ahora se pueden entrenar en pocos días. Con esta drástica reducción del tiempo de entrenamiento, ahora se podrá resolver todo un universo de problemas con la IA.

DESCUBRE CÓMO ACELERAR TUS MODELOS DE IA CON LA PRECISIÓN MIXTA DE LOS TENSOR CORES

Rendimiento de inferencia 24 veces más alto que con un servidor de CPU

Inferencia de ajuste base BERT, conjunto de datos: SQuADv1.1, BS=1, sequence length=128 | Comparación de NVIDIA V100: Supermicro SYS-4029GP-TRT, 1 V100-PCIE-16GB, contenedor antes del lanzamiento, precisión mixta, NVIDIA TensorRT™ 6.0, rendimiento: 557 oraciones/s | Comparación de Intel: 1 socket Intel Gold 6240 a 2,6 GHz/3,9 Hz con Turbo, FP32 (única precisión disponible), OpenVINO MKL-DNN v0.18, rendimiento: 23,5 oraciones/s

Inferencia de IA

Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescala han comenzado a aprovechar la IA. Sin embargo, mantenerse al día con la demanda de los usuarios es un desafío de proporciones enormes. Por ejemplo, la mayor empresa de hiperescala del mundo ha calculado recientemente que tendría que duplicar la capacidad de sus centros de datos si cada usuario usara solo tres minutos al día sus servicios de reconocimiento de voz.

V100 se ha diseñado para ofrecer el máximo rendimiento en bastidores de servidor a hiperescala existentes. Gracias a la IA de su núcleo, la GPU V100 ofrece un rendimiento de inferencia 30 veces más alto que un servidor de CPU. Este salto gigante en rendimiento y eficiencia hará que la ampliación de los servicios de IA resulte práctica.

Un nodo de servidor V100 equivale a 135 nodos de servidor solo con CPU

Aplicación (conjunto de datos): MILC (APEX Medium) y Chroma (szscl21_24_128) | Servidor de CPU: Intel Xeon Platinum 8280 de dos sockets (Cascade Lake)

computación de alto rendimiento (HPC)

La HPC es un pilar fundamental de la ciencia moderna. Desde la predicción del tiempo hasta el descubrimiento de fármacos y la búsqueda de nuevas fuentes de energía, los investigadores utilizan grandes sistemas informáticos para simular y predecir nuestro mundo. La IA amplía la HPC tradicional al permitir a los investigadores analizar grandes volúmenes de datos para obtener información útil rápidamente donde la simulación por sí sola no puede predecir completamente el mundo real.

V100 se ha diseñado para la convergencia de IA y HPC. Ofrece una plataforma para que los sistemas HPC destaquen tanto en ciencia computacional para la simulación científica como en ciencia de datos para la extracción de conocimientos de los datos. Al emparejar núcleos de NVIDIA CUDA® y Tensor Cores en una arquitectura unificada, un solo servidor con GPU V100 puede sustituir cientos de servidores con solo CPU básicas para cargas de trabajo de IA y HPC tradicionales. Cada investigador e ingeniero puede ahora permitirse un superordenador de IA para hacer frente a sus trabajos más desafiantes.

GPU PARA EL CENTRO DE DATOS

Tesla V100 NVLink para centros de datos

NVIDIA V100 PARA NVLINK

Rendimiento máximo para aprendizaje profundo.

Tesla V100 PCIe para centros de datos

NVIDIA V100 PARA PCIe

Máxima versatilidad con todas las cargas de trabajo.

Especificaciones de NVIDIA V100

 

V100 para NVLINK

V100 para PCIe

V100S para PCIe

RENDIMIENTO
con NVIDIA GPU Boost

Precisión doble
7,8 teraFLOPS

Precisión única
15,7 teraFLOPS

Aprendizaje profundo
125 teraFLOPS

Precisión doble
7 teraFLOPS

Precisión única
14 teraFLOPS

Aprendizaje profundo
112 teraFLOPS

Precisión doble
8,2 teraFLOPS

Precisión única
16,4 teraFLOPS

Aprendizaje profundo
130 teraFLOPS

ANCHO DE BANDA DE INTERCONEXIÓN
bidireccional

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORIA
CoWoS Stacked HBM2

CAPACIDAD
32/16 GB HBM2

ANCHO DE BANDA
900 GB/s

CAPACIDAD
32 GB HBM2

ANCHO DE BANDA
1134 GB/s

POTENCIA
Consumo máximo


300 WATTS


250 WATTS

Haz la prueba gratuita

Los aceleradores de GPU más rápidos del mundo para HPC y
aprendizaje profundo.

DÓNDE SE PUEDE COMPRAR

Encuentra un partner de aceleración computacional a través de
la red de partners de NVIDIA (NPN).