NVIDIA Tesla P100

La primera GPU de supercomputación de IA para Data Centers del mundo

INFINITO EN LA POTENCIA DE COMPUTACIÓN PARA EL DATA CENTER MODERNO

Los Data Centers de hoy dependen de muchos nodos de computación genéricos interconectados, lo que limita la computación de alto rendimiento (HPC) y las cargas de trabajo de hiperescala. NVIDIA® Tesla® P100 se conecta a la NVIDIA Pascal GPU para ofrecer una plataforma unificada para acelerar tanto HPC como IA, lo que aumenta drásticamente el rendimiento al mismo tiempo que reduce los costos.

UN NUEVO NIVEL DE RENDIMIENTO PARA LAS APLICACIONES

Con más de 600 aplicaciones de HPC aceleradas, incluyendo 15 de los 15 principales, y todos los sistemas de aprendizaje profundo, Tesla P100 con NVIDIA NVLink ofrece un aumento del rendimiento de hasta 50 veces."

tesla-p100-performance-chart-r2-843-udt

CARACTERÍSTICAS Y BENEFICIOS

Tesla P100 se reinventa desde los componentes al software, creado con innovación en todos los niveles. Cada tecnología innovadora ofrece un avance espectacular en el rendimiento para inspirar la creación del nodo de de computación más rápido del mundo.

Arquitectura NVIDIA Pascal™

Salto de rendimiento exponencial con la Arquitectura Pascal

La arquitectura NVIDIA Pascal permite al Tesla P100 ofrecer un rendimiento superior para cargas de trabajo de HPC e hiperescala. Con más de 21 teraFLOPS de rendimiento de coma flotante de 16 bits (FP16), Pascal está optimizado para impulsar nuevas y emocionantes posibilidades en aplicaciones de Deep Learning. Pascal también ofrece más de 5 y 10 TeraFLOP de rendimiento de precisión doble y única para cargas de trabajo HPC.

 

Chip-on-Wafer-on-Substrate

Eficiencia sin precedentes con CoWoS con HBM2

Tesla P100 integra firmemente la computación y los datos en el mismo paquete al agregar chip-on-wafer-on-substrate (CoWoS) con la tecnología HBM2 para proporcionar 3 veces más rendimiento de memoria a través de la arquitectura NVIDIA Maxwell Esto proporciona un salto generacional en el tiempo para la solución de aplicaciones de uso intensivo de datos.

Interconexión NVIDIA NVLink™ bidireccional de alta velocidad

Aplicaciones en Massive Scale con NVIDIA NVLink

El rendimiento a menudo es acelerado por la interconexión. La revolucionaria interconexión bidireccional NVIDIA NVLink high-speed, bidirectional interconnec testá diseñada para ampliar múltiples aplicaciones a través de GPU al ofrecer un alto rendimiento de 5 veces en comparación con la mejor tecnología de hoy en día.  

Motor de migración de páginas

Simplemente programando con el motor de migración de páginas

El motor de migración de páginas agiliza el trabajo de los desarrolladores para que se concentren más en la afinación del rendimiento de computación y menos en la gestión del movimiento de datos. Las aplicaciones ahora pueden escalar más allá de la memoria física de la GPU a cantidades virtualmente ilimitadas de memoria.

PRODUCTOS TESLA P100

NVIDIA Tesla P100 para HPC de gran escala

NVIDIA Tesla P100 para HPC de gran escala

Tesla P100 con la tecnología NVIDIA NVLink permite los nodos ultrarrápidos para acelerar enormemente el lanzamiento de la solución para las aplicaciones de gran escala. Un nodo de servidor con NVIDIA NVLink puede interconectar hasta ocho Tesla P100 con un ancho de banda de PCIe 5 veces mayor. Se diseñó para resolver los desafíos más importantes del mundo con necesidades de computación infinitas en HPC y Deep Learning.

NVIDIA Tesla P100 para HPC de gran escala

NVIDIA Tesla P100 para HPC de carga de trabajo mixta

Tesla P100 con la tecnología NVIDIA NVLink permite los nodos ultrarrápidos para acelerar enormemente el lanzamiento de la solución para las aplicaciones de gran escala. Un nodo de servidor con NVIDIA NVLink puede interconectar hasta ocho Tesla P100 con un ancho de banda de PCIe 5 veces mayor. Se diseñó para resolver los desafíos más importantes del mundo con necesidades de computación infinitas en HPC y Deep Learning.

NVIDIA Tesla P100 para HPC con cargas de trabajo mixtas

NVIDIA Tesla P100 para HPC de carga de trabajo mixta

Tesla P100 para PCIe permite que las mezclas de los centros de datos HPC trabajen en un salto espectacular en el rendimiento mientras ahorran dinero. Por ejemplo, un solo nodo acelerado por GPU alimentado por cuatro Tesla P100 interconectados con PCIe reemplaza hasta 32 nodos de CPU genéricos de productos para una variedad de aplicaciones. Completar todos los trabajos con nodos mucho menos potentes significa que los clientes pueden ahorrar hasta un 70 por ciento en los costos totales del centro de datos.

NVIDIA Tesla P100 para HPC con cargas de trabajo mixtas

NVIDIA Tesla P100 para HPC con cargas de trabajo mixtas

Tesla P100 para PCIe permite que las mezclas de los centros de datos HPC trabajen en un salto espectacular en el rendimiento mientras ahorran dinero. Por ejemplo, un solo nodo acelerado por GPU alimentado por cuatro Tesla P100 interconectados con PCIe reemplaza hasta 32 nodos de CPU genéricos de productos para una variedad de aplicaciones. Completar todos los trabajos con nodos mucho menos potentes significa que los clientes pueden ahorrar hasta un 70 por ciento en los costos totales del centro de datos.

ESPECIFICACIÓN DE RENDIMIENTO

P100 for PCIe-Based Servers P100 for NVLink-Optimized Servers
Double-Precision Performance 4.7 teraFLOPS 5.3 teraFLOPS
Single-Precision Performance 9.3 teraFLOPS 10.6 teraFLOPS
Half-Precision Performance 18.7 teraFLOPS 21.2 teraFLOPS
NVIDIA NVLink Interconnect Bandwidth - 160 GB/s
PCIe x16 Interconnect Bandwidth 32 GB/s 32 GB/s
CoWoS HBM2 Stacked Memory Capacity 16 GB or 12 GB 16 GB
CoWoS HBM2 Stacked Memory Bandwidth 732 GB/s or 549 GB/s 732 GB/s
Enhanced Programmability with Page Migration Engine checkbox checkbox
ECC Protection for Reliability checkbox checkbox
Server-Optimized for Data Center Deployment checkbox checkbox

DOCUMENTACIÓN DEL PRODUCTO

REALIZA UNA PRUEBA GRATUITA

Los aceleradores de GPU más veloces del mundo para HPC y el Deep Learning.

DÓNDE COMPRAR

Encuentre un socio de computación acelerado de NVIDIA a través de nuestro NVIDIA Partner Network (NPN).