GPU NVIDIA H200 Tensor Core

Supercarga de cargas de trabajo de IA y HPC.

Quiero estar informado cuando este producto esté disponible.

La GPU Más Poderosa del Mundo

La GPU NVIDIA H200 Tensor Core sobrealimenta las cargas de trabajo de IA generativas y de computación de alto rendimiento (HPC) con capacidades de rendimiento y memoria que cambian el juego. Como la primera GPU con HBM3E, la memoria más grande y rápida del H200 alimenta la aceleración de la IA generativa y los grandes modelos de lenguaje (LLM) al tiempo que avanza la computación científica para las cargas de trabajo de HPC.

NVIDIA Impulsa Hopper, la Plataforma de Computación de IA Líder del Mundo

Según la arquitectura NVIDIA Hopper ™, la NVIDIA HGX H200 presenta la GPU NVIDIA H200 Tensor Core con memoria avanzada para manejar cantidades masivas de datos para IA generativas y cargas de trabajo de computación de alto rendimiento.

Destacados

Experiencia en el Siguiente Nivel de Rendimiento

Inferencia Llama2 70B

1.9X Mas Rapido

Inferencia GPT-3 175B

1.6X Mas Rapido

Computación de Alto Rendimiento

110X Mas Rapido

Beneficios

Mayor Rendimiento y Memoria Más Grande y Más Rápida

Basada en la arquitectura NVIDIA Hopper, la NVIDIA H200 es la primera GPU que ofrece 141 gigabytes (GB) de la memoria HBM3E a 4.8 terabytes por segundo (TB/s), que casi duplica la capacidad de la GPU NVIDIA H100 Tensor Core con 1.4 veces más ancho de banda de memoria. La memoria más grande y rápida del H200 acelera la IA generativa y las LLM, al tiempo que avanza la computación científica para cargas de trabajo HPC con una mejor eficiencia energética y un menor costo total de propiedad.

Rendimiento medido preliminar, sujeto a cambios.
Llama2 13b: ISL 128, OSL 2K | Rendimiento | 1 GPU H100 BS 64 | 1 GPU H200 BS 128
GPT-3 175B: ISL 80, OSL 200 | 8 GPU H100 BS 64 | 8 GPU H200 BS 128
LLAMA2 70B: ISL 2K, OSL 128 | Rendimiento | 1 GPU H100 BS 8 | 1 GPU H200 BS 32..

Desbloquea Ideas con Inferencia de LLM de Alto Rendimiento

En el panorama en constante evolución de la IA, las empresas confían en LLM para abordar una amplia gama de necesidades de inferencia. Un acelerador de inferencia de IA debe entregar el rendimiento más alto en el TCO más bajo cuando se implementa a escala para una base de usuarios masiva.

La H200 aumenta la velocidad de inferencia en hasta 2 veces en comparación con las GPU H100 al manejar LLM como LLAMA2.

Supercargue de Computación de Alto Rendimiento

El ancho de banda de memoria es crucial para las aplicaciones HPC, ya que permite una transferencia de datos más rápida, reduciendo los cuellos de botella de procesamiento complejos. Para aplicaciones HPC intensivas en memoria, como simulaciones, investigación científica e IA, el ancho de banda de memoria superior de H200 asegura que se puedan acceder y manipular los datos de manera eficiente, lo que lleva a 110 veces un tiempo más rápido a los resultados en comparación con las CPU.

Rendimiento proyectado, sujeto a cambios.
HPC MILC- DataSet NERSC Apex Medium | 4-GPU HGX H200 | dual de Sapphire Rapids 8480
Aplicaciones HPC- CP2K: Conjuto de Datos H2O-32-RI-DRPA-96Points | GROMACS: Conjuto de Datos STMV | Icono: Conjuto de Datos R2B5 | MILC: Conjuto de Datos NERSC Apex Medium | Chroma: Conjuto de Datos HMC Medium | Espresso Cuántico: Conjuto de Datos Ausurf112 | 1x H100 | 1x H200.

Rendimiento medido preliminar, sujeto a cambios.
Llama2 70B: ISL 2K, OSL 128 | Rendimiento | 1 GPU H100 BS 8 | 1 GPU H200 BS 32

Reduzca la Energía y TCO

Con la introducción de H200, la eficiencia energética y el TCO alcanzan nuevos niveles. Esta tecnología de vanguardia ofrece un rendimiento incomparable, todo dentro del mismo perfil de potencia que la H100. Las AI factories y los sistemas de supercomputación que no solo son más rápidos sino también más ecológicos, ofrecen una ventaja económica que impulsa a la IA y la comunidad científica hacia adelante.

Aceleración de la IA para los Servidores Empresariales Convencionales con H200 NVL

NVIDIA H200 NVL es la opción ideal para los clientes con limitaciones de espacio dentro del data center, ya que ofrece aceleración para todas las cargas de trabajo de IA y HPC, independientemente de su tamaño. Con un aumento de memoria de 1,5 veces y un aumento de ancho de banda de 1,2 veces con respecto a la generación anterior, los clientes pueden ajustar los LLM en unas pocas horas y experimentar la inferencia de LLM 1,8 veces más rápido.

Listo para la Empresa: el Software de IA Agiliza el Desarrollo y la Implementación

NVIDIA H200 NVL incluye una suscripción de cinco años a NVIDIA AI Enterprise y simplifica la forma en que creas una plataforma empresarial preparada para la IA. H100 acelera el desarrollo y la implementación de IA para soluciones de IA generativa listas para la producción, incluida la visión por computadora, la IA de voz, la generación aumentada de recuperación (RAG) y más. NVIDIA AI Enterprise incluye NVIDIA NIM, un conjunto de microservicios fáciles de usar diseñados para acelerar la implementación de IA generativa empresarial. Juntas, las implementaciones tienen seguridad, capacidad de administración, estabilidad y soporte de nivel empresarial. Esto da como resultado soluciones de IA optimizadas para el rendimiento que ofrecen un valor empresarial más rápido e información procesable.

Especificaciones

GPU NVIDIA H200 Tensor Core

H200 SXM¹ H200 NVL¹
FP64 34 TFLOPS 34 TFLOPS
FP64 Tensor Core 67 TFLOPS 67 TFLOPS
FP32 67 TFLOPS 67 TFLOPS
TF32 Tensor Core² 989 TFLOPS 989 TFLOPS
BFLOAT16 Tensor Core² 1,979 TFLOPS 1,979 TFLOPS
FP16 Tensor Core² 1,979 TFLOPS 1,979 TFLOPS
FP8 Tensor Core² 3,958 TFLOPS 3,958 TFLOPS
INT8 Tensor Core² 3,958 TFLOPS 3,958 TFLOPS
Memoria de GPU 141GB 141GB
Ancho de Banda de Memoria de GPU 4.8TB/s 4.8TB/s
Decodificadores 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
Computación Confidencial Compatible Compatible
Potencia de Diseño Térmico Máximo (TDP) Hasta 700W (configurable) Hasta 600W (configurable)
GPU de Múltiples Instancias Hasta 7 MIGs @18GB cada uno Hasta 7 MIGs @18GB cada uno
Formato SXM PCIe
Interconexión NVIDIA NVLink™: 900GB/s
PCIe Gen5: 128GB/s
Bridge NVIDIA NVLink de 2 o 4 vías: 900GB/s PCIe Gen5: 128GB/s
Opciones de Servidor Socio NVIDIA HGX ™ H200 y Sistemas Certificados por NVIDIA™ con 4 u 8 GPU Socio NVIDIA MGX ™ H200 NVL y Sistemas Certificados por NVIDIA con hasta 8 GPU
NVIDIA AI Enterprise Añadir Incluido

Empieza Ahora

Notifíqueme cuando este producto esté disponible.

Especificaciones Rápidas de la GPU NVIDIA H200 Tensor Core