La primera GPU Tensor Core
Les volumes exponentiels de données recèlent des informations pouvant révolutionner des industries entières, des nouveaux systèmes personnalisés de traitement du cancer à la prévision des catastrophes naturelles en passant par les systèmes de synthèse vocale pour assistants personnels.
NVIDIA® Tesla® V100 à cœurs Tensor, le GPU pour Data Center le plus avancé au monde, a été conçu pour accélérer les workflows IA, HPC, ciencia de los datos et le rendu graphique. Accéléré par l’architecture NVIDIA Volta et équipé de 16 Go ou de 32Go de mémoire dédiée, le Tesla V100 délivre les performances de 100 CPU au sein d’un seul GPU - ce qui permet aux chercheurs et aux ingénieurs de relever des défis auparavant irréalisables.
Ejecuta cargas de trabajo de IA y HPC en un entorno virtual para mejorar la seguridad y la capacidad de administración mediante el software NVIDIA Virtual Compute Server (vCS).
Del reconocimiento de voz al entrenamiento de asistentes personales virtuales y la enseñanza de conducción autónoma de coches, los científicos de datos se enfrentan a retos cada vez más complejos con la IA. La solución de este tipo de problemas requiere el entrenamiento de modelos de deep learning exponencialmente más complejos en periodos de tiempo realistas.
Con 640 Tensor Cores, Tesla V100 es la primera GPU del mundo en superar la barrera de los 100 teraFLOPS (TFLOPS) de rendimiento en deep learning. La nueva generación de NVIDIA NVLink™ conecta varias GPU V100 a una velocidad de hasta 300 GB/s para crear los servidores de computación más potentes del mundo. Los modelos de IA que consumirían semanas de recursos informáticos en sistemas anteriores ahora se pueden entrenar en pocos días. Con esta drástica reducción del tiempo de entrenamiento, ahora se podrá resolver todo un universo de problemas con la IA.
Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescala han comenzado a aprovechar la IA. Sin embargo, mantenerse al día con la demanda de los usuarios es un desafío de proporciones enormes. Por ejemplo, la mayor empresa de hiperescala del mundo ha calculado recientemente que tendría que duplicar la capacidad de sus centros de datos si cada usuario usara solo tres minutos al día sus servicios de reconocimiento de voz.
Tesla V100 se ha diseñado para ofrecer el máximo rendimiento en bastidores de servidor a hiperescala existentes. Gracias a la IA de su núcleo, la GPU Tesla V100 ofrece un rendimiento de inferencia 30 veces más alto que un servidor de CPU. Este salto gigante en rendimiento y eficiencia hará que la ampliación de los servicios de IA resulte práctica.
La HPC es un pilar fundamental de la ciencia moderna. Desde la predicción del tiempo hasta el descubrimiento de fármacos y la búsqueda de nuevas fuentes de energía, los investigadores utilizan grandes sistemas informáticos para simular y predecir nuestro mundo. La IA amplía la HPC tradicional al permitir a los investigadores analizar grandes volúmenes de datos para obtener información útil rápidamente donde la simulación por sí sola no puede predecir completamente el mundo real.
Tesla V100 se ha diseñado para la convergencia de IA y HPC. Ofrece una plataforma para que los sistemas HPC destaquen tanto en ciencia computacional para la simulación científica como en ciencia de datos para la extracción de conocimientos de los datos. Al emparejar núcleos de NVIDIA CUDA® y Tensor Cores en una arquitectura unificada, un solo servidor con GPU Tesla V100 puede sustituir cientos de servidores con solo CPU básica para cargas de trabajo de IA y HPC tradicionales. Cada investigador e ingeniero puede ahora permitirse un superordenador de IA para hacer frente a su trabajo más desafiante.
Rendimiento máximo para deep learning.
Máxima versatilidad con todas las cargas de trabajo.
Rendimiento con 7.8 teraFLOPS
Precisión única 15,7 teraFLOPS
Aprendizaje profundo 125 teraFLOPS
Rendimiento con 7 teraFLOPS
Precisión única 14 teraFLOPS
Aprendizaje profundo 112 teraFLOPS
Rendimiento con 8.2 teraFLOPS
Precisión única 16.4 teraFLOPS
Aprendizaje profundo 130 teraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACIDAD 32/16 GB HBM2
ANCHO DE BANDA 900 GB/s
CAPACIDAD 32 GB HBM2
ANCHO DE BANDA 1134 GB/s
300 VATIOS
250 VATIOS
Los aceleradores de GPU más rápidos del mundo para HPC y Deep Learning.
Encuentra un partner de aceleración computacional a través de la red de partners de NVIDIA (NPN).