생성형 AI 프레임워크

NVIDIA NeMo
프레임워크

생성형 AI 모델을 구축, 맞춤화 및 배포합니다.

What is the NVIDIA NeMo Framework?

NVIDIA AI 플랫폼의 일부인 NVIDIA NeMo™ 프레임워크는 수십억 개의 파라미터로 생성형 AI 모델을 구축, 커스터마이징 및 배포할 수 있는 엔드투엔드 클라우드 네이티브 엔터프라이즈 프레임워크입니다.

NeMo 프레임워크는 3D 병렬 처리 기술로 트레이닝을 위한 가속화된 워크플로우를 제공합니다. 여러 가지 커스터마이징 기법을 선택할 수 있으며, 멀티 GPU 및 멀티 노드 구성을 통해 언어 및 이미지 애플리케이션을 위한 대규모 모델 추론에 최적화되어 있으며, NeMo를 사용하면 기업이 쉽고 비용 효율적이며 빠르게 제너레이티브 AI 모델을 개발할 수 있습니다.

NeMo 프레임워크가 대규모 언어 모델을 구축, 교육 및 배포하는 방법.

다양한 양식을 위한 파운데이션 모델 구축

NeMo 프레임워크는 텍스트 투 텍스트, 텍스트 투 이미지 그리고 이미지 투 이미지 기반 모델 개발을 지원합니다.

언어

  • BERT
  • GPT-3
  • T5
  • T5-MoE
  • Inform

멀티모달

  •  Stable Diffusion v1.5
  •  VisionTransformers (ViT) 
  •  CLIP
  •  Instruct-Pix2Pix
  •  Imagen

신뢰할 수 있고 안전하며 보안이 뛰어난 LLM 애플리케이션 구축

LLM 기반 애플리케이션을 위한 프로그래밍 가능한 가드레일

NeMo Guardrails는 신뢰할 수 있고 안전하며 보안이 뛰어난 LLM 대화형 시스템을 손쉽게 개발할 수 있는 툴킷입니다. 기본적으로 LangChain을 지원하여 LLM 기반 대화형 애플리케이션에 안전, 보안 및 주제별 가드레일 계층을 추가합니다.

이점

가장 빠른 GPU 트레이닝

최첨단 훈련 기법을 사용하여 처리량을 극대화하고 수십억 또는 수조 개의 파라미터가 포함된 기본 모델에 대한 훈련 시간을 최소화할 수 있습니다.

손쉬운 사용

언어 및 이미지 생성형 AI 모델을 학습하고 추론을 위해 융합 및 배포할 수 있도록 모든 종속성이 사전 패키지화되고 검증된 영수증과 함께 설치되어 있는 클라우드 네이티브 프레임워크입니다.

뛰어난 유연성

데이터 처리부터 학습, 생성형 AI 모델 추론에 이르기까지 파이프라인 전반에 걸쳐 완전한 유연성을 제공하는 오픈 소스 접근 방식입니다.

클라우드 및 온프레미스에서 실행

모든 GPU 인프라에서 모든 규모의 파운데이션 모델을 훈련하고 배포할 수 있습니다. 모든 NVIDIA DGX™ 시스템, NVIDIA DGX Cloud™, Microsoft Azure, Oracle Cloud 인프라 및 Amazon Web Services에서 지원됩니다.

맞춤화

엔터프라이즈 초개인화를 위한 기반 모델을 사용자 정의하는 도구를 제공합니다.

엔터프라이즈 등급

엔터프라이즈용으로 구축된 테스트를 거쳐 검증된 강력한 컨테이너입니다.

NVIDIA 런치패드에서 무료 실습 랩을 통해 NeMo 프레임워크를 체험해 보세요.

대규모 언어 모델 개발을 위한 주요 기능

최첨단 교육 기술

NeMo 프레임워크는 높은 수준의 훈련 효율성을 제공하여 다음과 같은 3D 병렬 처리 기술을 사용하여 대규모 기본 모델을 훈련할 수 있습니다:

  • 노드 내에서 모델을 확장하기 위한 텐서 병렬 처리
  • 수천 개의 GPU에서 데이터와 모델을 확장하기 위한 데이터 및 파이프라인 병렬 처리
  • 텐서 병렬 장치에 활성화 메모리를 분배하기 위한 시퀀스 병렬 처리

또한 선택적 활성화 재계산은 역전파 동안 텐서 병렬 장치에서 재계산 및 메모리 사용을 최적화합니다.

맞춤화 도구

NeMo 프레임워크는 다음과 같은 도구를 제공하여 엔터프라이즈 AI를 실용적으로 만듭니다.

  • 초점 및 가드레일 정의: 초개인화된 엔터프라이즈 모델에 대한 가이드라인과 운영 도메인을 정의하여 미세 조정, 신속한 학습, 및 어답터 테크닉을 통해 LLM이 원치 않는 영역으로 이탈하거나 부적절한 메시지를 전달하는 것을 방지합니다.
  • 도메인별 지식 포함:NVIDIA Inform을 사용하여 AI를 기업의 실시간 정보로 인코딩하고 임베드하여 최신 응답을 제공할 수 있습니다.
  • 기능적 기술 포함: 고객 및 비즈니스 문제 해결을 위한 전문 기술을 추가합니다. 즉각적인 학습 기술을 사용하여 고도로 개인화된 사용 사례에 대한 컨텍스트를 제공함으로써 더 나은 응답을 얻으세요.
  • 모델을 지속적으로 개선: 강화 학습과 휴먼 피드백(RLHF) 기술을 사용하면 시간이 지남에 따라 사람의 의도에 맞춰 엔터프라이즈 모델을 더욱 스마트하게 만들 수 있습니다.

최적화된 추론

NVIDIA Triton Inference Server™를 사용하여 추론을 위한 생성 AI 모델을 배포합니다. FasterTransformer의 강력한 최적화를 통해 단일 GPU, 다중 GPU 및 다중 노드 구성에서 최첨단 정확도, 대기 시간 및 처리량 추론 성능을 달성할 수 있습니다.

대규모 데이터 처리

자체 데이터 세트를 가져와서 데이터를 소화 가능한 형식으로 토큰화하세요. NeMo에는 언어 데이터 세트, 파일 및 다국어 C4(mC4)에서 데이터 필터링, 중복 제거, 블렌딩 및 포맷팅을 위한 포괄적인 전처리 기능이 포함되어 있습니다. 이를 통해 연구자와 엔지니어는 수개월의 개발 및 계산 시간을 절약하여 애플리케이션 구축에 집중할 수 있습니다.

손쉬운 레시피 및 도구

NeMo 프레임워크는 전체 파이프라인에 걸쳐 사전 패키지된 스크립트, 참조 예제 및 문서를 통해 첫날부터 생성형 AI를 가능하게 합니다.

또한 자동 구성 툴을 통해 기초 모델을 쉽게 구축할 수 있는데, 이 툴은 최적의 하이퍼파라미터 구성을 자동으로 검색하여 주어진 멀티 GPU 구성, 훈련 또는 배포 제약 조건에 맞게 훈련과 추론을 최적화합니다..

NVIDIA NeMo 언어 및 이미지 서비스를 사용하여 생성형 AI 모델을 쉽게 맞춤화하고 사용하세요

NeMo 언어 서비스

기업의 초개인화 및 지능형 대규모 언어 모델의 대규모 배포를 위한 클라우드 서비스입니다.

피카소 서비스

고해상도의 사실적인 이미지, 동영상, 3D 콘텐츠를 생성하기 위해 맞춤형 생성 AI 모델을 사용하는 엔터프라이즈용 가속 클라우드 서비스입니다.

NVIDIA NeMo 프레임워크로 생성형 AI 및 LLM 애플리케이션을 가속화하는 고객사

LLM으로 산업 애플리케이션 가속화

AI Sweden은 지역 언어에 대한 1,000억 개의 매개변수 모델을 북유럽 생태계에서 쉽게 액세스할 수 있게 함으로써 LLM 산업 애플리케이션을 가속화했습니다. AI Sweden은 스웨덴의 역사적 기록을 디지털화하고 이 비정형 데이터에서 엔터프라이즈 애플리케이션에서 상용화할 수 있는 언어 모델을 구축하고 있습니다.

Image Courtesy of Korea Telecom

LLM으로 새로운 고객 경험 창출

한국의 선도적인 모바일 사업자가 스마트 스피커와 고객 콜센터를 구동하기 위해 NVIDIA DGX SuperPOD 플랫폼과 NeMo 프레임워크로 훈련된 수십억 개의 파라미터 LLM을 구축합니다.

더 많은 리소스를 찾아보세요

Deploying a 1.3B GPT-3 Model With NVIDIA NeMo Framework
NVIDIA NeMo 프레임워크로 1.3B GPT-3 모델 배포

NeMo 프레임워크 및 NVIDIA Triton 추론 서버를 사용하여 13억 개의 매개변수 GPT-3 모델을 다운로드, 최적화 및 배포하는 방법을 알아보세요.

NeMo 프레임워크를 사용한 LLM의 효율적인 대규모 교육 및 배포

멀티 노드 환경에서 데이터를 전처리하고, 최적의 하이퍼파라미터를 자동으로 선택하여 여러 GPT-3 및 T5 구성에 대한 학습 시간을 최소화하고, 대규모로 모델을 학습하고, 사용하기 쉬운 스크립트 세트를 사용하여 멀티 노드 프로덕션 환경에서 모델을 배포하는 방법을 알아보세요.

NVIDIA LaunchPad의 무료 실습 랩

GPT-3 모델에 대해 사전 조정된 하이퍼파라미터 구성을 사용하여 엔터프라이즈의 LLM 여정을 시작하세요. NeMo 프레임워크로 대규모 NLP 모델을 훈련하는 방법을 알아보세요.

지금 NVIDIA NeMo 프레임워크 시작하기