NVIDIA Tesla V100

La primera GPU Tensor Core

Bienvenue dans la nouvelle ère de l’IA

Les volumes exponentiels de données recèlent des informations pouvant révolutionner des industries entières, des nouveaux systèmes personnalisés de traitement du cancer à la prévision des catastrophes naturelles en passant par les systèmes de synthèse vocale pour assistants personnels.

NVIDIA® Tesla® V100 à cœurs Tensor, le GPU pour Data Center le plus avancé au monde, a été conçu pour accélérer les workflows IA, HPCciencia de los datos et le rendu graphique. Accéléré par l’architecture NVIDIA Volta et équipé de 16 Go ou de 32Go de mémoire dédiée, le Tesla V100 délivre les performances de 100 CPU au sein d’un seul GPU - ce qui permet aux chercheurs et aux ingénieurs de relever des défis auparavant irréalisables.

Ejecuta cargas de trabajo de IA y HPC en un entorno virtual para mejorar la seguridad y la capacidad de administración mediante el software NVIDIA Virtual Compute Server (vCS). 

Formación en IA

Entrenamiento de IA

Del reconocimiento de voz al entrenamiento de asistentes personales virtuales y la enseñanza de conducción autónoma de coches, los científicos de datos se enfrentan a retos cada vez más complejos con la IA. La solución de este tipo de problemas requiere el entrenamiento de modelos de deep learning exponencialmente más complejos en periodos de tiempo realistas.

Con 640 Tensor Cores, Tesla V100 es la primera GPU del mundo en superar la barrera de los 100 teraFLOPS (TFLOPS) de rendimiento en deep learning. La nueva generación de NVIDIA NVLink™ conecta varias GPU V100 a una velocidad de hasta 300 GB/s para crear los servidores de computación más potentes del mundo. Los modelos de IA que consumirían semanas de recursos informáticos en sistemas anteriores ahora se pueden entrenar en pocos días. Con esta drástica reducción del tiempo de entrenamiento, ahora se podrá resolver todo un universo de problemas con la IA.

Inferencia de IA

Inferencia de IA

Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescala han comenzado a aprovechar la IA. Sin embargo, mantenerse al día con la demanda de los usuarios es un desafío de proporciones enormes. Por ejemplo, la mayor empresa de hiperescala del mundo ha calculado recientemente que tendría que duplicar la capacidad de sus centros de datos si cada usuario usara solo tres minutos al día sus servicios de reconocimiento de voz.

Tesla V100 se ha diseñado para ofrecer el máximo rendimiento en bastidores de servidor a hiperescala existentes. Gracias a la IA de su núcleo, la GPU Tesla V100 ofrece un rendimiento de inferencia 30 veces más alto que un servidor de CPU. Este salto gigante en rendimiento y eficiencia hará que la ampliación de los servicios de IA resulte práctica.

Alta computación (HPC)

Computación de alto rendimiento (HPC)

La HPC es un pilar fundamental de la ciencia moderna. Desde la predicción del tiempo hasta el descubrimiento de fármacos y la búsqueda de nuevas fuentes de energía, los investigadores utilizan grandes sistemas informáticos para simular y predecir nuestro mundo. La IA amplía la HPC tradicional al permitir a los investigadores analizar grandes volúmenes de datos para obtener información útil rápidamente donde la simulación por sí sola no puede predecir completamente el mundo real.

Tesla V100 se ha diseñado para la convergencia de IA y HPC. Ofrece una plataforma para que los sistemas HPC destaquen tanto en ciencia computacional para la simulación científica como en ciencia de datos para la extracción de conocimientos de los datos. Al emparejar núcleos de NVIDIA CUDA® y Tensor Cores en una arquitectura unificada, un solo servidor con GPU Tesla V100 puede sustituir cientos de servidores con solo CPU básica para cargas de trabajo de IA y HPC tradicionales. Cada investigador e ingeniero puede ahora permitirse un superordenador de IA para hacer frente a su trabajo más desafiante.

GPU PARA EL CENTRO DE DATOS

Tesla V100 NVLink para centros de datos

NVIDIA TESLA V100 PARA NVLINK

Rendimiento máximo para deep learning.

Tesla V100 PCIe para centros de datos

NVIDIA TESLA V100 PARA PCIe

Máxima versatilidad con todas las cargas de trabajo.

Especificaciones de NVIDIA Tesla V100

 

Tesla V100 para NVLink

Tesla V100 para PCIe

Tesla V100s para PCIe

RENDIMIENTO
con el impulso de la GPU NVIDIA

Rendimiento con
7.8 teraFLOPS

Precisión única
15,7 teraFLOPS

Aprendizaje profundo
125 teraFLOPS

Rendimiento con
7 teraFLOPS

Precisión única
14 teraFLOPS

Aprendizaje profundo
112 teraFLOPS

Rendimiento con
8.2 teraFLOPS

Precisión única
16.4 teraFLOPS

Aprendizaje profundo
130 teraFLOPS

ANCHO DE BANDA DE INTERCONEXIÓN
Bidireccional

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORIA
CoWoS Stacked HBM2

CAPACIDAD
32/16 GB HBM2

ANCHO DE BANDA
900 GB/s

CAPACIDAD
32 GB HBM2

ANCHO DE BANDA
1134 GB/s

POTENCIA
Consumo máximo


300 VATIOS


250 VATIOS

Haz la prueba gratuita

Los aceleradores de GPU más rápidos del mundo para HPC y Deep Learning.                                        

DÓNDE COMPRAR

Encuentra un partner de aceleración computacional a través de la red de partners de NVIDIA (NPN).