GPU NVIDIA V100 CON NÚCLEOS TENSOR

La Primera GPU con Núcleos Tensor

TE DAMOS LA BIENVENIDA A LA ERA DE LA IA.

Descubre la información oculta en océanos de datos que puede transformar industrias enteras, desde la terapia de cáncer personalizada hasta la conversación natural de los asistentes personales virtuales y las predicciones de huracanes importantes.

La GPU NVIDIA® V100 con núcleos Tensor es la GPU para data centers más avanzada de la historia, ya que acelera tareas de IA, computación de alto rendimiento (HPC), ciencia de datos y gráficos. Cuenta con la arquitectura NVIDIA, se ofrece en configuraciones de 16 y 32GB, y proporciona un rendimiento equivalente al de 32 CPU en una sola GPU. Los científicos de datos, los investigadores y los ingenieros pueden dedicar menos tiempo a optimizar el uso de la memoria y más tiempo a diseñar el próximo avance revolucionario de IA.

Ejecuta cargas de trabajo de HPC y IA en un entorno virtual para aumentar la seguridad y la administración con el software NVIDIA Virtual Compute Server (vCS)

Entrenamiento 32 Veces Más Rápido que una CPU

Entrenamiento de ResNet-50, conjunto de datos: ImageNet2012, BS=256 | Comparación de NVIDIA V100: Servidor NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, contenedor = 19.11-py3, precisión mixta, productividad: 1525 imágenes/s | Comparación de Intel: Supermicro SYS-1029GQ-TRT, 1 socket Intel Gold 6240 a 2 Ghz/3,9 Hz Turbo, Tensorflow 0.18, FP32 (una sola precisión disponible), productividad: 48 imágenes/s

ENTRENAMIENTO DE IA

Desde el reconocimiento de habla hasta la capacitación de asistentes personales virtuales y la conducción de automóviles autónomos, los científicos de datos resuelven desafíos cada vez más complejos con la IA. Solucionar estos tipos de problemas requiere capacitar modelos de deep learning cada vez más complejos en un tiempo práctico.

Con 640 Núcleos Tensor, V100 es la primera GPU del mundo en superar la barrera de los 100 teraFLOPS (TFLOPS) de rendimiento de deep learning. La tecnología NVIDIA NVLink™ de próxima generación conecta varias GPU V100 a 300GB/s para crear los servidores más potentes del mundo. Los modelos de IA que consumían semanas de recursos de computación en los sistemas anteriores ahora se pueden capacitar en unos pocos días. Con esta dramática reducción en el tiempo de capacitación, ahora es posible resolver una gran cantidad de problemas con IA.

CONOCE LA FORMA DE ACELERAR TUS MODELOS DE IA CON LA PRECISIÓN MIXTA DE LOS NÚCLEOS TENSOR

Inferencia 24 Veces Más Alta que un Servidor de CPU

Inferencia de ajuste de BERT Base, conjunto de datos: SQuADv1.1, BS=1, longitud de secuencia =128 | Comparación de NVIDIA V100: Supermicro SYS-4029GP-TRT, 1x V100-PCIE-16GB, contenedor previo al lanzamiento, precisión mixta, NVIDIA TensorRT™ 6.0, productividad: 557 oraciones/s | Comparación de Intel: 1 socket Intel Gold 6240 a 2,6 Ghz/3,9 Hz Turbo, FP32 (una sola precisión disponible), OpenVINO MKL-DNN v0.18, productividad: 23.5 oraciones/s

INFERENCIA DE IA

Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescalabilidad comenzaron a aprovechar la IA. Sin embargo, mantener el ritmo de la demanda de los usuarios es un desafío complejo. Por ejemplo, la empresa de hiperescalabilidad más grande del mundo estimó recientemente que se debería duplicar la capacidad de sus data centers si cada usuario dedicara tan solo tres minutos por día a usar su servicio de reconocimiento de voz.

V100 se diseñó para proporcionar el máximo rendimiento en los racks de servidores de hiperescalabilidad existentes. La GPU V100 está optimizada para la IA y logra un rendimiento de inferencia 47veces mayor que un servidor de CPU. Este enorme salto en la tasa de transferencia y la eficacia permite que la escalabilidad de los servicios de IA sea práctica.

Un Nodo de Servidor V100 Reemplaza a 135 Nodos de Servidor de Solo CPU

Aplicación (conjunto de datos): MILC (APEX Medium) y Chroma (szscl21_24_128) | Servidor con CPU: Dual-Socket Intel Xeon Platinum 8280 (Cascade Lake)

COMPUTACIÓN DE ALTO RENDIMIENTO (HPC)

HPC es un aspecto básico de la ciencia moderna. Desde predecir el clima hasta descubrir nuevos medicamentos o fuentes de energía, los investigadores usan los sistemas de computación para simular y predecir nuestro mundo. La IA extiende la computación de alto rendimiento (HPC) tradicional, ya que les permite a los investigadores analizar grandes volúmenes de datos y obtener resultados rápidamente, cuando la simulación no puede predecir por completo el mundo real.

V100 se diseñó para la convergencia de IA y HPC. Ofrece una plataforma para sistemas de HPC que mejora la ciencia de computación para la simulación científica y la ciencia de datos para descubrir información. Al combinar los núcleos NVIDIA CUDA® con los núcleos Tensor en una misma arquitectura, un solo servidor con varias GPU V100 puede reemplazar a cientos de servidores genéricos solo de CPU para las cargas de trabajo de IA y HPC tradicionales. Ahora, cada investigador e ingeniero puede acceder a una supercomputadora de IA para resolver sus trabajos más desafiantes.

GPU PARA DATA CENTERS

NVIDIA Tesla V100 for NVLink

NVIDIA V100 PARA NVLINK

El rendimiento definitivo para el deep learning.

NVIDIA Tesla V100 for PCIe

NVIDIA V100 PARA PCle

La versatilidad más alta para todas las cargas de trabajo.

ESPECIFICACIONES DE NVIDIA V100

 

Tesla V100 para NVLink

Tesla V100 para PCIe

Tesla V100S para PCIe

RENDIMIENTO
con NVIDIA GPU Boost

PRECISIÓN DOBLE
7.8 teraFLOPS

PRECISIÓN ÚNICA
15.7 teraFLOPS

Deep Learning
125 teraFLOPS

PRECISIÓN DOBLE
7 teraFLOPS

PRECISIÓN ÚNICA
14 teraFLOPS

Deep Learning
112 teraFLOPS

PRECISIÓN DOBLE
8.2 teraFLOPS

PRECISIÓN ÚNICA
16.4 teraFLOPS

Deep Learning
130 teraFLOPS

ANCHO DE BANDA DE
INTERCONEXIÓN BIDIRECCIONAL

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORIA
CoWoS Stacked HBM2

CAPACIDAD
32/16 GB HBM2

ANCHO DE BANDA
900 GB/s

CAPACIDAD
32 GB HBM2

ANCHO DE BANDA
1134 GB/s

ENERGÍA
Consumo Máximo


300 WATTS


250 WATTS

REALIZA UNA PRUEBA GRATUITA

Los Aceleradores de GPU Más Veloces del Mundo para la Computación de Alto Rendimiento y el Deep Learning.

DÓNDE COMPRAR

Encuentra un socio de la computación acelerada de NVIDIA mediante nuestra Red de Socios de NVIDIA (NPN).