NVIDIA AI

NVIDIA NIM 마이크로서비스

가속 생성형 AI 추론을 어디에서나 빠르고 안정적으로 배포할 수 있도록 설계되었습니다.

개요

NVIDIA NIM이란 무엇인가요?

NVIDIA NIM™은 클라우드, 데이터 센터, 워크스테이션, 엣지 등의 NVIDIA 가속 인프라에 최신 AI 모델을 빠르게 배포하기 위해 사전 구축되고 최적화된 추론 마이크로서비스를 제공합니다.

NVIDIA AI 팩토리로 지역을 생각하고 글로벌 행동을 취하는 소버린 AI 에이전트

검증된 AI 팩토리 설계는 새로운 NVIDIA NIM™ 기능과 확장된 NVIDIA Blueprint 등이 포함된 소프트웨어와 가속화된 인프라를 결합합니다.

NIM에 대한 무료 개발 액세스

DGX Cloud가 가속화한 NIM을 위한 호스팅 API를 사용하여 무제한으로 프로토타이핑을 경험해 보거나 NVIDIA 개발자 프로그램의 일환으로 연구 및 개발을 위한 NIM 마이크로서비스를 다운로드하여 자체 호스팅해 보세요.

NVIDIA NIM을 통한 AI 배포 가속화

NVIDIA NIM은 관리형 API의 사용 편의성 및 운영 간소화와 사용자가 선호하는 인프라에서 자체 호스팅 모델의 유연성과 보안을 결합합니다. NIM 마이크로서비스는 최신 AI 파운데이션 모델, 최적화된 추론 엔진, 업계 표준 API, 런타임 종속성 등 AI 팀에 필요한 모든 것을 포함하며, 어디에서나 배포하고 확장할 수 있는 엔터프라이즈급 소프트웨어 컨테이너에 사전 패키지로 제공됩니다.

NVIDIA NIM Stack Diagram

이점

적은 비용으로 더 많은 성과를 내는 엔터프라이즈 생성형 AI

고성능 AI를 위해 구축된 쉬운 엔터프라이즈급 마이크로서비스는 원활하게 작동하고 경제적으로 확장할 수 있도록 설계되었습니다. 추론, 시뮬레이션, 음성 등을 위한 최신 AI 모델을 기반으로 하는 AI 에이전트와 기타 엔터프라이즈 생성형 AI 애플리케이션의 가치 실현 시간을 가장 빠르게 경험해 보세요. 

사용 편의성

최신 AI 모델을 위해 사전 구축되고 최적화된 마이크로서비스를 사용하여 혁신을 가속화하고 출시 시간을 단축해 보세요. 표준 API를 사용하면 모델을 5분 안에 배포할 수 있으며, 애플리케이션에 손쉽게 통합할 수 있습니다.

엔터프라이즈급

NVIDIA가 엄격한 검증 프로세스와 전용 기능 브랜치를 통해 지속적으로 관리하는 엔터프라이즈급 마이크로서비스를 배포해 보세요. 이 모든 기능은 NVIDIA 엔터프라이즈를 통해 지원되며, NVIDIA AI 전문가와의 직접 상담할 수 있습니다.

성능 및 확장성

클라우드에서 확장되는 짧은 지연 시간과 높은 처리량의 AI 추론으로 TCO를 개선하고, 파인 튜닝된 모델에 대한 지원으로 즉시 최상의 정확도를 달성하세요.

휴대성

클라우드, 데이터 센터, 워크스테이션 등 NVIDIA 가속 인프라에서 실행할 수 있는 사전 구축된 클라우드 네이티브 마이크로서비스로 어디에나 배포하고, 쿠버네티스 및 클라우드 서비스 제공 업체 환경에서 원활하게 확장하세요. 

데모

NIM을 활용한 AI 에이전트 구축

콘텐츠 생성과 디지털 그래픽 디자인을 위한 두 가지 AI 에이전트를 설정하는 방법을 알아보고 NIM 마이크로서비스로 얼마나 쉽게 시작하고 실행할 수 있는지 알아보세요.


기술

에이전틱 AI를 위한 빌딩 블록

최신 AI 모델 사용

추론, 언어, 검색, 음성, 비전 등을 위한 최신 AI 모델을 사용할 수 있으며 어떠한 NVIDIA 가속 인프라에서든 단 5분 만에 배포할 수 있습니다.

NVIDIA Blueprints로 개발 가속화

NVIDIA 가속 라이브러리, SDK, NIM 마이크로서비스를 갖춘 포괄적인 참조 워크플로를 통해 영향력 있는 에이전틱 AI 애플리케이션을 구축해 보세요.

NVIDIA AgentIQ 툴킷으로 개발 간소화

AI 에이전트를 구축하고 맞춤형 워크플로에 통합하는 개발자 툴킷인 NVIDIA AgentIQ 라이브러리를 통해 NIM 마이크로서비스를 에이전틱 AI 애플리케이션으로 구성해 보세요.

벤치마크

NIM으로 처리량 높이기

NVIDIA NIM은 토큰 생성을 극대화하고, 피크 타임 동안의 동시 사용자를 지원하며, 응답성을 향상시키기 위해 최적화된 처리량과 지연 시간을 제공합니다. NIM 마이크로서비스는 최적화된 최신 추론 엔진으로 지속적으로 업데이트되어 동일한 인프라에서 시간이 지남에 따라 성능을 향상시킵니다.

구성: Llama 3.1 8B instruct, H100 SXM 1개, 동시 요청: 200. NIM 켜짐: FP8, 처리량 1201토큰/초, ITL 32ms. NIM 꺼짐: FP8, 처리량 613토큰/초, ITL 37ms.

모델

천 개의 오픈 모델을 위한 기업용 추론 기능 활성화

NVIDIA® TensorRT™-LLM, vLLM, SGLang 등이 지원하는 거대 언어 모델(LLM)을 배포하여 NVIDIA 가속 인프라에서 지연 시간이 짧고 처리량이 높은 추론을 실행할 수 있습니다.


기능

AI 개발 및 배포를 위한 쉬운 버튼

어디에서나 실행할 수 있도록 설계된 NIM 추론 마이크로서비스는 엔터프라이즈 시스템 및 애플리케이션과 쉽게 통합할 수 있도록 업계 표준 API를 제공하며, 쿠버네티스에서 원활하게 확장하여 클라우드 규모에서 높은 처리량과 짧은 지연 시간의 추론을 제공합니다.

NIM 배포

단 한 줄의 명령어로 모델에 NIM을 배포하세요. 또한 fine-tuning된 모델을 포함하여 NVIDIA TensorRT-LLM, vLLM, SGLang 등이 지원되는 LLM으로 NIM을 간편하게 실행할 수도 있습니다.

추론 실행

NVIDIA 가속 인프라를 기반으로 최적의 런타임 엔진으로 NIM을 시작하고 실행하세요.

구축

몇 줄의 코드로 자체 호스팅 NIM 엔드포인트를 통합하세요.

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

사용 사례

NIM이 사용되는 방법

NVIDIA NIM이 어떻게 산업 사용 사례를 지원하는지 알아보고 엄선된 예제로 AI 개발을 빠르게 시작하세요.

AI 가상 비서

생성형 AI로 고객 경험을 향상시키고 비즈니스 프로세스를 개선하세요.

지능형 문서 처리

생성형 AI를 사용하여 문서 처리를 가속화하고 자동화하세요.

초개인화 쇼핑을 위한 AI

AI의 힘으로 고객 만족도를 높이는 맞춤형 경험을 제공하세요.

3D 제품 컨피규레이터

OpenUSD와 생성형 AI를 사용하여 3D 제품 컨피규레이터 도구와 경험을 개발하고 거의 모든 장치에 배포하세요.

시작 옵션

NVIDIA NIM을 시작하는 방법

무료로 프로토타이핑 시작하기

DGX Cloud를 기반으로 한 사용하기 쉬운 NIM용 API 엔드포인트로 시작해 보세요.

  • 완전히 가속화된 AI 인프라에 엑세스하세요.
  • 자신의 데이터가 모델 학습에 사용되지 않도록 하세요.
  • NVIDIA 개발자 프로그램의 일환으로 개발 및 테스트에 액세스하세요.

다운로드 및 배포

NVIDIA NIM을 실행하여 원하는 클라우드 또는 데이터 센터에서 최적화된 AI 모델을 확장할 수 있습니다.

  • 데이터가 보안 엔클레이브를 벗어나지 못하게 하세요.
  • 코드 변경 없이 클라우드 엔드포인트에서 자체 호스팅 API로 원활하게 전환합니다.
  • 개발 및 테스트를 위한 무료 액세스로 시작한 후 프로덕션을 위한 NVIDIA AI 엔터프라이즈 라이선스로 전환해 보세요.

문의하기

NVIDIA AI Enterprise와 함께 제공되는 보안, API 안정성, 지원으로 생성형 AI 파일럿을 프로덕션 환경으로 전환하는 방법에 대해 NVIDIA AI 전문가와 상담하세요.

  • 생성형 AI 사용 사례를 살펴보세요.
  • 기술적 요구 사항을 논의하세요.
  • NVIDIA AI 솔루션을 목표와 요구 사항에 맞게 조정하세요.

리소스

최신 NVIDIA NIM 리소스

NVIDIA NIM 마이크로서비스 소개

NIM이 AI 애플리케이션의 구축, 배포, 확장을 어떻게 지원하는지 알아보세요.

LLM 추론 시스템의 규모 결정

실제 응용 분야를 위해 NIM 마이크로서비스를 사용하여 거대 언어 모델(LLM)을 최적화하고 배포하는 방법을 알아보세요.

NIM을 사용한 AI 배경 생성기 개발

AI 지원 NVIDIA Omniverse™ Kit 기반 애플리케이션 제작 프로세스를 검토하세요. Omniverse 확장, NIM 마이크로서비스, Python 코드를 사용하여 텍스트 입력에서 배경을 생성할 수 있는 확장 프로그램을 추가하는 방법을 알아보세요.

NVIDIA NIM으로 5분 만에 간단한 AI 에이전트를 구축하는 방법

콘텐츠 생성과 디지털 그래픽 디자인을 위한 두 가지 AI 에이전트를 설정하는 방법을 알아보세요.

RTX AI PC를 위한 NVIDIA NIM 마이크로서비스

NVIDIA NIM과 NVIDIA Blueprint로 NVIDIA RTX™ AI PC에서 최신 생성형 AI 모델을 로컬로 활용하세요.

NVIDIA NIM으로 구동되는 생성형 AI 추론

NVIDIA NIM 마이크로서비스로 고성능 생성형 AI 추론의 영향을 시각화하세요.

다음 단계

시작할 준비가 되셨나요?

DGX Cloud가 가속화한 프로토타이핑을 위한 NIM API 엔드포인트에 무제한으로 액세스해 보세요. 프로덕션 준비가 되면 워크스테이션, 데이터 센터, 엣지 또는 클라우드 등의 선호하는 인프라에서 NIM을 다운로드하여 자체 호스팅하거나 NVIDIA 파트너사가 호스팅하는 NIM 엔드포인트에 액세스해 보세요.

문의하기

NVIDIA AI Enterprise와 함께 제공되는 보안, API 안정성 및 지원과 함께 파일럿에서 프로덕션으로 전환하는 방법에 대해 NVIDIA 제품 전문가와 상담하세요.

최신 NVIDIA NIM 뉴스 받아보기

최신 뉴스, 기술, 혁신 등의 소식을 이메일로 받아보세요.