La primera GPU Tensor Core
Encontrar los conocimientos ocultos en océanos de datos puede transformar industrias enteras, desde la terapia personalizada contra el cáncer hasta ayudar a los asistentes personales virtuales a conversar de forma natural y predecir el próximo gran huracán.
NVIDIA® V100 Tensor Core es la GPU para centros de datos más avanzada. Acelera el rendimiento de la IA, la computación de alto rendimiento (HPC), la ciencia de datos y los gráficos. Cuenta con la tecnología de la arquitectura NVIDIA Volta, viene en configuraciones de 16 y 32 GB y ofrece el rendimiento de hasta 32 CPU en una sola GPU. Los científicos de datos, los investigadores y los ingenieros ahora pueden dedicar menos tiempo a optimizar el uso de la memoria y más a diseñar las próximas innovaciones revolucionarias en IA.
Ejecuta cargas de trabajo de IA y HPC en un entorno virtual para mejorar la seguridad y la capacidad de administración mediante el software NVIDIA Virtual Compute Server (vCS)
Formación de ResNet-50, conjunto de datos: ImageNet2012, BS=256 | Comparación de NVIDIA V100: servidor NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, container=19.11-py3, precisión mixta, rendimiento: 1,525 imágenes/s | Comparación de Intel: Supermicro SYS-1029GQ-TRT, 1 socket Intel Gold 6240 a 2 GHz/3,9 Hz con Turbo, TensorFlow 0.18, FP32 (única precisión disponible), rendimiento: 48 imágenes/s
Del reconocimiento de voz al entrenamiento de asistentes personales virtuales y la enseñanza de conducción autónoma de coches, los científicos de datos se enfrentan a retos cada vez más complejos con la IA. La solución de este tipo de problemas requiere el entrenamiento de modelos de aprendizaje profundo exponencialmente más complejos en periodos de tiempo realistas.
Con 640 Tensor Cores, V100 es la primera GPU del mundo en superar la barrera de los 100 teraFLOPS (TFLOPS) de rendimiento en aprendizaje profundo. La nueva generación de NVIDIA NVLink™ conecta varias GPU V100 a una velocidad de hasta 300 GB/s para crear los servidores de computación más potentes del mundo. Los modelos de IA que consumirían semanas de recursos informáticos en sistemas anteriores ahora se pueden entrenar en pocos días. Con esta drástica reducción del tiempo de entrenamiento, ahora se podrá resolver todo un universo de problemas con la IA.
Inferencia de ajuste base BERT, conjunto de datos: SQuADv1.1, BS=1, sequence length=128 | Comparación de NVIDIA V100: Supermicro SYS-4029GP-TRT, 1 V100-PCIE-16GB, contenedor antes del lanzamiento, precisión mixta, NVIDIA TensorRT™ 6.0, rendimiento: 557 oraciones/s | Comparación de Intel: 1 socket Intel Gold 6240 a 2,6 GHz/3,9 Hz con Turbo, FP32 (única precisión disponible), OpenVINO MKL-DNN v0.18, rendimiento: 23,5 oraciones/s
Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescala han comenzado a aprovechar la IA. Sin embargo, mantenerse al día con la demanda de los usuarios es un desafío de proporciones enormes. Por ejemplo, la mayor empresa de hiperescala del mundo ha calculado recientemente que tendría que duplicar la capacidad de sus centros de datos si cada usuario usara solo tres minutos al día sus servicios de reconocimiento de voz.
V100 se ha diseñado para ofrecer el máximo rendimiento en bastidores de servidor a hiperescala existentes. Gracias a la IA de su núcleo, la GPU V100 ofrece un rendimiento de inferencia 30 veces más alto que un servidor de CPU. Este salto gigante en rendimiento y eficiencia hará que la ampliación de los servicios de IA resulte práctica.
Aplicación (conjunto de datos): MILC (APEX Medium) y Chroma (szscl21_24_128) | Servidor de CPU: Intel Xeon Platinum 8280 de dos sockets (Cascade Lake)
La HPC es un pilar fundamental de la ciencia moderna. Desde la predicción del tiempo hasta el descubrimiento de fármacos y la búsqueda de nuevas fuentes de energía, los investigadores utilizan grandes sistemas informáticos para simular y predecir nuestro mundo. La IA amplía la HPC tradicional al permitir a los investigadores analizar grandes volúmenes de datos para obtener información útil rápidamente donde la simulación por sí sola no puede predecir completamente el mundo real.
V100 se ha diseñado para la convergencia de IA y HPC. Ofrece una plataforma para que los sistemas HPC destaquen tanto en ciencia computacional para la simulación científica como en ciencia de datos para la extracción de conocimientos de los datos. Al emparejar núcleos de NVIDIA CUDA® y Tensor Cores en una arquitectura unificada, un solo servidor con GPU V100 puede sustituir cientos de servidores con solo CPU básicas para cargas de trabajo de IA y HPC tradicionales. Cada investigador e ingeniero puede ahora permitirse un superordenador de IA para hacer frente a sus trabajos más desafiantes.
Rendimiento máximo para aprendizaje profundo.
Máxima versatilidad con todas las cargas de trabajo.
Precisión doble 7,8 teraFLOPS
Precisión única 15,7 teraFLOPS
Aprendizaje profundo 125 teraFLOPS
Precisión doble 7 teraFLOPS
Precisión única 14 teraFLOPS
Aprendizaje profundo 112 teraFLOPS
Precisión doble 8,2 teraFLOPS
Precisión única 16,4 teraFLOPS
Aprendizaje profundo 130 teraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACIDAD 32/16 GB HBM2
ANCHO DE BANDA 900 GB/s
CAPACIDAD 32 GB HBM2
ANCHO DE BANDA 1134 GB/s
300 WATTS
250 WATTS
Los aceleradores de GPU más rápidos del mundo para HPC y aprendizaje profundo.
Encuentra un partner de aceleración computacional a través de la red de partners de NVIDIA (NPN).