NVIDIA DGX B200

NVIDIA DGX B200

La base de su centro de excelencia de IA.

Un rendimiento revolucionario con innovación evolutiva

NVIDIA DGX™ B200 es una plataforma de IA unificada de canalizaciones desde el desarrollo hasta la implementación para empresas de cualquier tamaño en cualquier etapa de su viaje de IA. Equipada con ocho GPU NVIDIA B200 Tensor Core interconectadas con la quinta generación de NVIDIA® NVLink®, DGX B200 proporciona un rendimiento de vanguardia que multiplica por 3 el rendimiento de entrenamiento y por 25 el rendimiento de inferencia de las generaciones anteriores. Dado que aprovecha la arquitectura de la GPU NVIDIA Blackwell, DGX B200 puede gestionar diversas cargas de trabajo, como modelos lingüísticos de gran tamaño, sistemas de recomendación y chatbots, por lo que resulta ideal para las empresas que quieren acelerar su transformación hacia la IA.

Infraestructura de IA para cualquier carga de trabajo

Descubra cómo DGX B100 capacita a las empresas para acelerar cualquier carga de trabajo de IA, desde la preparación de datos hasta el entrenamiento y la inferencia.

Ejemplos de implementaciones empresariales eficaces

Descubra cómo la plataforma NVIDIA DGX y NVIDIA NeMo™ han impulsado a empresas líderes.

Ventajas

Una plataforma de IA unificada

Una plataforma para canalizaciones de desarrollo a implementación

Las empresas requieren una enorme capacidad de computación para gestionar conjuntos de datos de IA complejos en todas las etapas de la canalización de IA, desde el entrenamiento al ajuste y la inferencia. NVIDIA DGX B200 permite a las empresas equipar a sus desarrolladores con una única plataforma creada para acelerar sus flujos de trabajo.

Motor de IA de alto rendimiento

Gracias a los avances en computación de la arquitectura NVIDIA Blackwell, DGX B200 ofrece 3 veces más rendimiento de entrenamiento y 15 veces más rendimiento de inferencia que DGX H100. Como base de NVIDIA DGX BasePOD™ y NVIDIA DGX SuperPOD™, DGX B200 ofrece un rendimiento de vanguardia para cualquier carga de trabajo.

Infraestructura estándar probada

DGX B200 es una plataforma de hardware y software totalmente optimizada que incluye la pila completa de software de IA de NVIDIA, como NVIDIA Base Command y el software NVIDIA AI Enterprise, un rico ecosistema de soporte de terceros y acceso a asesoramiento experto de los servicios profesionales de NVIDIA.

Rendimiento

Rendimiento de última generación impulsado por DGX B200

Inferencia en tiempo real del modelo lingüístico de gran tamaño

Rendimiento previsto sujeto a cambios. Latencia de token a token (TTL) = 50 ms en tiempo real, latencia de primer token (FTL) = 5 s, longitud de secuencia de entrada = 32 768, longitud de secuencia de salida = 1028, 8 GPU DGX H100 de ocho vías refrigeradas por aire frente a 1 GPU DGX B200 de ocho vías refrigeradas por aire, por comparación de rendimiento de GPU​.

Rendimiento acelerado del entrenamiento de IA

Rendimiento previsto sujeto a cambios. Escala de 32 768 GPU, clúster DGX H100 de ocho vías y refrigeración por aire de 4096x: Red IB de 400 G, clúster DGX B200 de ocho vías y refrigeración por aire de 4096x: red IB de 400 G.

Especificaciones

Especificaciones de NVIDIA DGX B200

GPU 8 GPU NVIDIA B200 Tensor Core
Memoria de GPU Un total de 1440 GB de memoria de GPU
Rendimiento 72 petaFLOPS de entrenamiento y 144 petaFLOPS de inferencia
Consumo de energía ~14,3 kW máx.
CPU 2 Procesadores Intel® Xeon® Platinum 8570
112 núcleos en total, 2,1 GHz (base),
4 GHz (impulso máximo)
Memoria del sistema Hasta 4 TB
Redes 4 puertos OSFP para 8 VPI NVIDIA ConnectX-7 de un solo puerto
  • InfiniBand/Ethernet de hasta 400 Gb/s
2 DPU de doble puerto QSFP112 NVIDIA BlueField-3
  • InfiniBand/Ethernet de hasta 400 Gb/s
Redes NIC integrada de 10 Gb/s con RJ45
NIC ethernet de doble puerto de 100 Gb/s
Controlador de gestión de placa base (BMC) de host con RJ45
Almacenamiento SO: 2 NVMe M.2 de 1,9 TB
Almacenamiento interno: 8 NVMe U.2 de 3,84 TB
Software NVIDIA AI Enterprise: software de IA optimizado
NVIDIA Base Command™: orquestación, programación y gestión de clústeres
DGX OS/Ubuntu: sistema operativo
Rack Units (RU) 10 RU
System Dimensions Altura: 444 mm (17,5 pulgadas)
Ancho: 482,2 mm (19,0 pulgadas)
Longitud: 897,1 mm (35,3 pulgadas)
Operating Temperature 5–30 °C (41–86 °F)
Enterprise Support Soporte técnico empresarial durante tres años para hardware y software 
Portal de soporte para empresas ininterrumpido
Soporte de un agente en directo durante el horario comercial local

Recursos

Supercomputación para todas las empresas

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™ con sistemas DGX B200 permite a empresas importantes implementar infraestructuras a gran escala y listas para usar con el apoyo de la competencia en IA de NVIDIA.

Maximice el valor de la plataforma DGX

Los servicios para empresas de NVIDIA proporcionan soporte, formación y servicios profesionales para su infraestructura DGX. Gracias a la disponibilidad de los expertos de NVIDIA en cada paso de su trayectoria en torno a la IA, los servicios para empresas pueden ayudarle a poner en marcha sus proyectos con rapidez y eficacia.

Reciba una oferta de formación exclusiva como cliente de DGX

Descubra cómo avanzar más rápidamente con la IA y reciba formación técnica especializada que expertos en IA ofrecen de forma exclusiva a los clientes de DGX en NVIDIA Deep Learning Institute (DLI).

Primeros pasos

Dé los pasos siguientes

Obtenga la plataforma NVIDIA DGX

La plataforma DGX se compone de una amplia variedad de productos y servicios que se adaptan a las necesidades de cada empresa de IA.

Descubre las ventajas de la plataforma NVIDIA DGX

NVIDIA DGX es el estándar probado sobre el que se construye la IA empresarial.

¿Necesita ayuda para seleccionar el producto o partner adecuado?

Hable con un especialista de productos NVIDIA sobre sus necesidades profesionales.