NVIDIA Blackwell Architecture

El motor de la nueva revolución industrial.

Derribamos las barreras de la computación acelerada y la IA generativa

Explore los avances innovadores que la arquitectura NVIDIA Blackwell aporta a la IA generativa y la computación acelerada. Sobre la base de generaciones de tecnologías NVIDIA, Blackwell define el próximo capítulo de la IA generativa con un rendimiento, una eficacia y una escala sin precedentes.

Eche un vistazo a los avances tecnológicos

Una nueva clase de superchip de IA

Las GPU con arquitectura Blackwell cuentan con 208 000 millones de transistores y se fabrican mediante un proceso TSMC 4NP personalizado. Todos los productos Blackwell cuentan con dos troqueles limitados por retículas conectados mediante una interconexión de chip a chip de 10 terabytes por segundo (TB/s) en una sola GPU unificada.

Motor transformador de segunda generación

El motor transformador de segunda generación utiliza tecnología de núcleos Tensor de Blackwell personalizada combinada con las innovaciones de NVIDIA® TensorRT™-LLM y NeMo™ Framework para acelerar la inferencia y el entrenamiento para modelos lingüísticos de gran tamaño (LLM) y modelos de mezcla de expertos (MoE).

Para potenciar la inferencia de los modelos MoE, los Tensor Cores de Blackwell añaden nuevas precisiones, incluidos los formatos de microescalado definidos por la comunidad, lo que proporciona una mayor precisión y facilidad de sustitución para precisiones superiores. El motor transformador Blackwell utiliza técnicas de escalado de grano fino llamadas escalado micro-tensor, para optimizar el rendimiento y la precisión, lo que permite una IA de punto flotante de 4 bits (FP4). Esto duplica el rendimiento y el tamaño de los modelos de próxima generación que la memoria puede admitir mientras se mantiene una alta precisión.

IA segura

Blackwell incluye computación confidencial de NVIDIA, que protege los datos confidenciales y los modelos de IA de accesos no autorizados con una sólida seguridad basada en hardware.  Blackwell es la primera GPU compatible con TEE-I/O del sector, al tiempo que proporciona la solución de computación confidencial de mayor rendimiento con hosts compatibles con TEE-I/O y protección en línea con NVIDIA® NVLink®. La computación confidencial de Blackwell ofrece un rendimiento casi idéntico en comparación con los modos no cifrados. Las empresas ahora pueden proteger incluso los modelos más grandes de una manera eficiente, además de proteger la propiedad intelectual (IP) de IA y permitir de forma segura el entrenamiento confidencial de IA, la inferencia y el aprendizaje federado.

NVLink y NVLink Switch

Para liberar todo el potencial de la computación a exaescala y los modelos de IA con billones de parámetros, es necesario que exista una comunicación rápida y sin fisuras entre todas las GPU de un clúster de servidores. La quinta generación de la interconexión de NVIDIA® NVLink® puede escalar hasta 576 GPU para liberar un rendimiento acelerado para modelos de IA con billones y billones de parámetros. 

El NVIDIA NVLink Switch Chip ofrece 130 TB/s de ancho de banda de GPU en un dominio NVLink de 72 GPU (NVL72) y ofrece una eficiencia de ancho de banda cuatro veces mayor con la compatibilidad con el Protocolo escalable de reducción y agregación jerárquica de NVIDIA (SHARP)™ FP8. El NVIDIA  NVLink Switch Chip admite clústeres que van más allá de un solo servidor con la misma impresionante interconexión de 1,8 TB/s. Los clústeres multiservidor con NVLink escalan las comunicaciones de GPU en equilibrio con el aumento de la computación, por lo que NVL72 puede ofrecer 9 veces más rendimiento de GPU que un solo sistema de ocho GPU. 

Motor de descompresión

Los flujos de trabajo de análisis de datos y bases de datos han dependido tradicionalmente de las CPU para el cálculo. La ciencia de datos acelerada puede aumentar drásticamente el rendimiento de los análisis de extremo a extremo, lo que acelera la generación de valor al tiempo que reduce los costes. Las bases de datos, incluida Apache Spark, desempeñan un papel fundamental en la gestión, el procesamiento y el análisis de grandes volúmenes de datos para el análisis de datos. 

El motor de descompresión de Blackwell y su capacidad para acceder a grandes cantidades de memoria en la CPU NVIDIA Grace™ a través de un enlace de alta velocidad(900 gigabytes por segundo (GB/s) de ancho de banda bidireccional) aceleran toda la canalización de consultas de la base de datos para obtener el máximo rendimiento en el análisis y la ciencia de datos, con compatibilidad para los formatos de compresión más recientes, como LZ4, Snappy y Deflate.

Motor de fiabilidad, disponibilidad y mantenimiento (RAS)

Blackwell añade resiliencia inteligente con un motor dedicado de fiabilidad, disponibilidad y mantenimiento (RAS) para identificar posibles fallos que pueden ocurrir pronto para minimizar el tiempo de inactividad. Las capacidades de gestión predictiva con tecnología de IA de NVIDIA supervisan continuamente miles de puntos de datos en hardware y software para que el estado general pueda predecir e interceptar fuentes de tiempo de inactividad e ineficiencia. Esto crea una resiliencia inteligente que ahorra tiempo, energía y costes informáticos.

El motor RAS de NVIDIA proporciona información de diagnóstico detallada que puede identificar áreas de preocupación y planificar el mantenimiento. El motor RAS reduce el tiempo de respuesta localizando rápidamente el origen de los problemas, y minimiza el tiempo de inactividad facilitando una solución eficaz.

Descubra modelos de billones de parámetros en tiempo real con NVIDIA GB200 NVL72

NVIDIA GB200 NVL72 conecta 36 superchips GB200 Grace Blackwell con 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor. GB200 NVL72 es una solución con refrigeración por líquido que cuenta con un dominio NVLink de 72 GPU que actúa como una única GPU masiva y proporciona una inferencia de LLM en tiempo real 30 veces más rápida para modelos lingüísticos de gran tamaño con billones de parámetros.

Informe técnico de NVIDIA Blackwell

Obtenga más información sobre la arquitectura que está impulsando la nueva era de la IA generativa y la computación acelerada.