GPU NVIDIA V100 TENSOR CORE

La Primera GPU Tensor Core

Bienvenido a la Era de la IA.

Encontrar los conocimientos ocultos en océanos de datos puede transformar industrias enteras, desde la terapia personalizada contra el cáncer hasta ayudar a los asistentes personales virtuales a conversar de forma natural y predecir el próximo gran huracán.

NVIDIA® V100 Tensor Core es la GPU de data center más avanzada jamás construida para acelerar la inteligencia artificial, la computación de alto rendimiento (HPC), la ciencia de datos y los gráficos. Está impulsado por la arquitectura NVIDIA Volta, viene en configuraciones de 16 y 32 GB y ofrece el rendimiento de hasta 32 CPU en una sola GPU. Los científicos, investigadores e ingenieros de datos ahora pueden dedicar menos tiempo a optimizar el uso de la memoria y más tiempo a diseñar el próximo avance de la IA.

Ejecute cargas de trabajo de IA y HPC en un entorno virtual para una mejor seguridad y capacidad de gestión con el software NVIDIA Virtual Compute Server (vCS)

Rendimiento de Entrenamiento 32 Veces Más Rápido que una CPU

Entrenamiento de IA

Desde reconocer el habla hasta capacitar a asistentes personales virtuales y enseñar a conducir automóviles autónomos, los científicos de datos están asumiendo desafíos cada vez más complejos con la inteligencia artificial. Resolver este tipo de problemas requiere entrenar modelos de deep learning que están creciendo exponencialmente en complejidad, en una cantidad de tiempo práctica.

Con 640 Tensor Cores, V100 es la primera GPU del mundo que rompe la barrera de los 100 teraFLOPS (TFLOPS) del rendimiento del aprendizaje profundo. La próxima generación de NVIDIA NVLink™ conecta varias GPU V100 de hasta 300 GB / s para crear los servidores informáticos más potentes del mundo. Los modelos de IA que consumirían semanas de recursos informáticos en sistemas anteriores ahora se pueden entrenar en unos pocos días. Con esta drástica reducción en el tiempo de entrenamiento, ahora se podrá resolver un nuevo mundo de problemas con la IA.

VEA CÓMO PUEDE ACELERAR SUS MODELOS DE IA CON PRECISIÓN MIXTA EN TENSOR CORES

Rendimiento de Inferencia 24 Veces Mayor que un Servidor de CPU

Inferencia de IA

Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescala han comenzado a aprovechar la inteligencia artificial. Sin embargo, mantenerse al día con la demanda de los usuarios es un desafío abrumador. Por ejemplo, la empresa de hiperescala más grande del mundo estimó recientemente que necesitarían duplicar la capacidad de su data center si cada usuario dedicara solo tres minutos al día a utilizar su servicio de reconocimiento de voz.

V100 está diseñada para proporcionar el máximo rendimiento en racks de servidores de hiperescala existentes. Con IA en su núcleo, la GPU V100 ofrece un rendimiento de inferencia 47 veces mayor que un servidor de CPU. Este gran salto en rendimiento y eficiencia hará que la ampliación de los servicios de inteligencia artificial sea práctica.

Un Nodo de Servidor V100 Reemplaza Hasta 135 Nodos de Servidor Solo con CPU

computación de alto rendimiento (HPC)

HPC es un pilar fundamental de la ciencia moderna. Desde predecir el clima hasta descubrir fármacos y encontrar nuevas fuentes de energía, los investigadores utilizan grandes sistemas de computación para simular y predecir nuestro mundo. La IA amplía la HPC tradicional al permitir a los investigadores analizar grandes volúmenes de datos para obtener información rápida donde la simulación por sí sola no puede predecir completamente el mundo real.

V100 está diseñada para la convergencia de IA y HPC. Ofrece una plataforma para que los sistemas HPC se destaquen tanto en la ciencia computacional para la simulación científica como en la ciencia de datos para encontrar conocimientos en los datos. Al emparejar los NVIDIA CUDA® Cores y los Tensor Cores dentro de una arquitectura unificada, un solo servidor con GPU V100 puede reemplazar cientos de servidores de CPU básicos para cargas de trabajo tradicionales de HPC y IA. Cada investigador e ingeniero ahora puede permitirse una supercomputadora de inteligencia artificial para abordar su trabajo más desafiante.

DATA CENTER GPUs

Data Center Tesla V100 NVLink

NVIDIA V100 PARA NVLINK

Máximo rendimiento para el deep learning.

Data Center Tesla V100 PCle

NVIDIA V100 PARA PCle

Máxima versatilidad para todas las cargas de trabajo.

Especificaciones de NVIDIA V100

 

V100 para NVLink

V100 para PCIe

V100S para PCIe

RENDIMIENTO
con NVIDIA GPU Boost

Precisión Doble
7.8 teraFLOPS

Precisión Simple
15.7 teraFLOPS

Deep Learning
125 teraFLOPS

Precisión Doble
7 teraFLOPS

Precisión Simple
14 teraFLOPS

Deep Learning
112 teraFLOPS

Precisión Doble
8.2 teraFLOPS

Precisión Simple
16.4 teraFLOPS

Deep Learning
130 teraFLOPS

ANCHO DE BANDA INTERCONECTADA
Bidireccional

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORIA
CoWoS Stacked HBM2

CAPACIDAD
32/16 GB HBM2

ANCHO DE BANDA
900 GB/s

CAPACIDAD
32 GB HBM2

ANCHO DE BANDA
1134 GB/s

POTENCIA
Consumo Máximo


300 WATTS


250 WATTS

Realice una Prueba de Manejo Gratuita

Los Aceleradores de GPU Más Rápidos del Mundo para HPC y Deep Learning.

DONDE COMPRAR

Encuentre un Socio de Computación Acelerada de NVIDIA a través de nuestra Red de Socios de NVIDIA (NPN).