NVIDIA Blackwell 아키텍처

AI 추론 시대에서 AI 팩토리를 뒷받침하는 엔진이며 현재 본격적으로 양산 중입니다.

가속 컴퓨팅과 생성형 AI의 장벽을 허물다

NVIDIA Blackwell 아키텍처가 생성형 AI와 가속 컴퓨팅에 제공한 기술 혁신을 확인해 보세요. Blackwell은 여러 세대에 걸친 NVIDIA 기술을 바탕으로 탁월한 성능과 효율성 및 확장성과 함께 생성형 AI의 다음 장을 정의합니다. 

기술 혁신 내부 살펴보기

새로운 유형의 AI 슈퍼칩

NVIDIA Blackwell 아키텍처 GPU는 2,080억 개의 트랜지스터가 탑재되어 있으며 맞춤형 TSMC 4NP 공정을 사용해서 제조됩니다. NVIDIA Blackwell 제품은 통합된 단일 GPU에서 초당 10테라바이트 (TB/s)의 칩 사이에서 상호 연결을 통해서 연결된 레티클 제한형 다이 2개를 가지고 있는 것이 특징입니다.

2세대 트랜스포머 엔진

2세대 트랜스포머 엔진은 맞춤형 NVIDIA Blackwell Tensor 코어 기술과 TensorRT™-LLM 및 NeMo™ 프레임워크 혁신 기술을 결합한 거대 언어 모델(LLM)과 전문가 혼합(MoE) 모델의 추론과 학습을 가속화합니다.  NVIDIA Blackwell Tensor 코어는 새로운 커뮤니티의 정의 마이크로스케일링 형식을 비롯한 새로운 정밀도가 추가되어 더 큰 정밀도를 향한 높은 정확성 및 교체의 용이성을 제공해 드립니다.

Blackwell Ultra Tensor 코어는 Blackwell GPU와 비교해 보면 어텐션 레이어 가속화가 2배, AI 컴퓨팅 플롭스는 1.5배 더 강력합니다. NVIDIA Blackwell 트랜스포머 엔진은 마이크로 텐서 스케일링이라는 정교한 스케일링 기법을 사용해서 성능과 정확도를 최적화하여 4비트 부동 소수점(FP4) AI를 구현합니다. 이에 따라 메모리가 지원할 수 있는 차세대 모델의 성능과 크기를 두 배로 확장하면서도 높은 정확도를 유지할 수 있습니다.

보안 AI

NVIDIA Blackwell에는 민감한 데이터와 강력한 하드웨어 기반 보안을 사용하여 무단 엑세스로부터 보호해 드리는 NVIDIA 기밀 컴퓨팅이 포함되어 있습니다. NVIDIA Blackwell은 업계 최초의 TEE-I/O 지원 GPU로,  NVIDIA NVLink™을 통하여 TEE-I/O 지원 호스트 및 인라인 보호 기능을 갖추고 있는 최고의 기밀 컴퓨팅 솔루션을 제공해 드립니다. NVIDIA Blackwell 컨피덴셜 컴퓨팅에서는 암호화하지 않은 모드와 거의 같은 처리량의 성능을 제공해 드립니다. 이제 엔터프라이즈에서는 AI 지적재산권(IP)을 보호해 드리고 기밀 AI 학습, 추론 및 연합 학습을 안전하게 지원해 드릴 뿐만 아니라 가장 큰 모델도 보호하실 수 있는 것입니다.

NVLink 및 NVLink Switch

엑사스케일 컴퓨팅(Exascale Computing) 및 조 단위의 파라미터 AI 모델의 잠재력을 최대한 활용해 보시려면, 서버 클러스터 내의 모든 GPU 간에 빠르고 원활한 통신이 필요합니다. 5세대 NVIDIA NVLink 인터커넥트는 최대 576개의 GPU로 확장하여 1조 개 또는 수조 개의 파라미터를 가진 AI 모델에서 가속화된 성능을 제공해 드릴 수 있는 것입니다. 

NVIDIA NVLink 스위치 칩은 72GPU NVLink 도메인 하나(NVL72)에서 130TB/s의 GPU 대역폭을 지원해 드리며, NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol(SHARP)™ FP8을 지원으로 4배의 대역폭 효율성을 제공해 드립니다. NVIDIA NVLink 스위치 칩은 1.8TB/s의 우월한 상호 연결 속도로 단일 서버 이상의 클러스터를 지원해 드립니다. NVLink가 탑재된 멀티 서버 클러스터에서는 향상된 컴퓨팅과 균형을 이루며 GPU 통신을 확장해 드리게 되므로 NVL72는 단일 8개의 GPU 시스템보다 9배 더 높은 GPU 처리량을 지원해 드릴 수 있습니다.

폐기물 감압 엔진

데이터 분석과 데이터베이스 워크플로우는 전통적으로 컴퓨팅을 위해 CPU에 의존해 왔습니다. 가속화된 데이터 과학은 엔드투엔드 분석의 성능을 획기적으로 개선해 보시고 가치 창출 속도를 높여보시는 동시에 비용을 절감해 보실 수 있습니다. 아파치 스파크를 포함한 데이터베이스는 데이터 분석을 위해 대량의 데이터를 취급하시고 처리하시며 분석하시기 위해서 중요한 역할을 합니다.

NVIDIA Blackwell’s 압축 해제 인진 및 고속 링크를 사용하셔서 NVIDIA Grace™ CPU 에서 초당 900기가바이트(GB/s)의 대용량 메모리에 엑세스 해보실 수 있도록 만들어 드리기 위한 기능으로는 LZ4, Snappy, Deflate와 같은 최신 압축 형식을 지원해 드리며 데이터 분석 및 데이터 과학 분야에서 최고의 성능을 향한 데이터베이스 쿼리의 전체 파이프라인을 가속화해 드리는 것입니다.

안정성, 가용성, 서비스 가능성(RAS) 엔진

NVIDIA Blackwell은 전용 신뢰성, 가용성과 서비스 가능성(RAS) 엔진을 사용하여 지능형 복원력을 추가하여 다운타임을 최소화해 드리기 위한 초기에 발생할 수 있는 잠재적인 결함을 식별해 드립니다.  NVIDIA의 AI 기반 예측 관리 기능은 전반적인 상태를 위해 하드웨어와 소프트웨어 전반에 걸친 수천 개의 데이터 포인트를 계속하여 모니터링 해드리며 다운타임 및 비효율성의 원인을 예측하고 차단해 드립니다. 이를 통해 시간, 에너지, 컴퓨팅 비용을 절감하는 지능형 복원력을 구축해 보실 수 있습니다.

NVIDIA’s RAS 엔진은 우려스러운 영역을 식별해 드리며 유지 보수 계획을 세워보실 수 있게 하기 위한 심층적인 진단 정보를 제공해 드립니다. RAS 엔진은 문제의 원인을 빠르게 파악해 드리며 처리 시간을 단축해 드리고, 효과적인 복구를 촉진하여 다운타임을 최소화해 드립니다.

NVIDIA Blackwell 제품

NVIDIA GB300 NVL72

NVIDIA GB300 NVL72는 Hopper 시스템 대비 65배 높은 AI 컴퓨팅 능력을 특징으로 하여, 비교 불가능한 AI 추론 성능을 자랑합니다.

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™는 업계 최고의 가속화된 인프라를 제공하는 턴키 AI 데이터센터 솔루션으로, 가장 까다로운 AI 학습 및 추론 워크로드를 처리할 수 있도록 확장 가능한 성능을 갖추고 있습니다.

데이터 센터 NVIDIA RTX PRO

강력한 AI 및 그래픽 가속화를 촉진하는 것은 물론 필수 엔터프라이즈 기능을 갖추고 있으며, NVIDIA RTX PRO™ 데이터 센터 GPU로 가속화된 에이전틱 AI 및 물리 AI부터 시각적 컴퓨팅과 가상 워크스테이션에 이르기까지 다양한 워크로드를 처리할 수 있는 유연성을 자랑합니다.

NVIDIA RTX PRO 워크스테이션

NVIDIA RTX PRO GPU는 AI, 레이 트레이싱, 뉴럴 그래픽 기술 분야에서 이루어진 최신 발전을 바탕으로 설계, 엔지니어링 등 다양한 분야에서 가장 혁신적인 워크플로우를 지원합니다.

NVIDIA DGX Station

기존의 AI 데스크톱 컴퓨터와는 달리 이 시스템은 NVIDIA Blackwell GPU, Grace CPU 슈퍼칩 및 대용량의 일관된 메모리를 갖추고 있어 탁월한 컴퓨팅 성능을 제공합니다.

NVIDIA DGX Spark

NVIDIA GB10 Grace Blackwell 슈퍼칩이 탑재된 이 소형 개인용 AI 슈퍼컴퓨터는 고성능 AI 기능을 제공하며 최대 2,000억 파라미터를 가진 모델을 지원합니다.

NVIDIA HGX B300 NVL16

NVIDIA HGX™ B300 NVL16은 컴퓨팅 기능이 더 향상되고 메모리는 더 증가하여, AI 추론 시대에 적합하게 구축되었습니다.

NVIDIA GB200 NVL72

NVIDIA GB200 NVL72는 랙 스케일 방식과 수냉식 설계로 36개의 Grace CPU와 72개의 Blackwell GPU를 연결합니다.

NVIDIA DGX Spark 소개

DGX Spark는 개발자 데스크톱에 NVIDIA Grace Blackwell™의 강력한 성능을 제공합니다. 128GB의 통합 시스템 메모리와 결합된 GB10 슈퍼칩을 통해 AI 연구원, 데이터 과학자 및 학생들은 최대 2000억 개의 파라미터를 사용하여 로컬에서 AI 모델을 작업할 수 있습니다.

NVIDIA GB200 NVL72를 사용한 실시간 조 단위 파라미터 모델 활용해 보기

NVIDIA GB200 NVL72는 36개의 GB200 Grace Blackwell 슈퍼칩을 36개의 Grace CPU 및 72개의 Blackwell GPU에 랙 규모의 설계로 연결해 드립니다. GB200 NVL72는 72GPU NVLink 도메인을 갖추고 있는 수냉식 솔루션으로, 1조 개의 파라미터를 가진 거대 언어 모델(LLM)과 비교하여 30배 더 빠른 실시간 추론을 제공해 드립니다.

NVIDIA Blackwell 기술 개요

생성형 AI 및 가속 컴퓨팅의 새로운 시대를 지원해 드리는 아키텍처에 대해 자세히 알아보세요.