Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA는 전 세계의 개발자, 디자이너 및 크리에이터를 위해 혁신의 경계를 확장하고 세계 최대의 산업을 변화시키기 위해 가속 컴퓨팅을 개척했습니다. Google Cloud의 유연성, 글로벌 범위 및 규모와 결합된 NVIDIA 가속 컴퓨팅은 솔루션 개발 시간을 단축하고, 생성형 AI, 데이터 분석, 고성능 컴퓨팅(HPC), 그래픽, 게이밍과 같은 컴퓨터 집약적 워크로드를 어디서 실행해야 하든 인프라 TCO를 줄여줍니다.
NVIDIA와 Google Cloud는 모든 생성형 AI 스택 계층에서의 협력을 통해 차세대 인프라, 엔터프라이즈급 소프트웨어, 추론 마이크로서비스에 대한 액세스를 제공하고, 파운데이션 모델을 최적화하여 프로토타입부터 프로덕션 배포까지의 시간을 단축하고 있습니다.
NVIDIA와 Google Cloud는 협력을 통해 최첨단 데이터 분석 솔루션을 제공하여 기업이 대규모 데이터 세트로부터 가치 있는 인사이트를 얻고 데이터 기반 의사결정 및 혁신으로 새로운 가능성을 열어갈 수 있도록 지원합니다.
Google Cloud의 NVIDIA 가속 컴퓨팅 플랫폼은 개발자, 과학자, 엔지니어 및 연구원이 생명과학, 기후 모델링, 제조, 에너지, 양자 시뮬레이션, 금융 서비스와 같은 분야에서 복잡한 워크로드를 처리할 수 있도록 지원합니다.
선도적인 컴퓨터 비전 스타트업인 Let's Enhance가 Google Kubernetes Engine(GKE)의 NVIDIA AI 플랫폼을 사용하여 AI 기반 사진 편집 서비스를 프로덕션에 배포함으로써 처리량을 80% 증가시키고 비용을 34% 절감한 방법을 확인해 보세요.
엔터프라이즈용 풀스택 생성형 AI 플랫폼인 Writer가 GKE에서 NVIDIA NeMo™ 프레임워크 및 TensorRT™-LLM과 함께 NVIDIA H100 및 L4 Tensor Core GPU를 활용하여 700억 개 파라미터까지 확장 가능한 17개 이상의 거대 언어 모델(LLM)을 훈련하고 배포하는 방법을 알아보세요.
LiveX AI는 GKE에서 NVIDIA GPU를 통해 NVIDIA NIM™ 추론 마이크로서비스의 성능을 활용하여 6.1배 증가한 평균 토큰 속도를 달성했습니다. 이러한 성능 향상을 통해 LiveX AI는 원활한 고객 지원, 즉각적인 제품 추천과 같은 개인화된 경험을 실시간으로 고객에게 제공하고 반품을 줄일 수 있게 되었습니다.
GCE(Google Compute Engine)의 광범위한 최신 NVIDIA GPU 포트폴리오 중에서 선택하여 분산 LLM 훈련, 실시간 AI 추론, 빅 데이터 프레임워크에서의 데이터 집약적 분석, HPC에서의 과학적 시뮬레이션 및 모델링, 사실적인 3D 그래픽 및 몰입형 가상 환경 렌더링을 비롯한 다양한 컴퓨팅 집약적 워크로드를 가속화하세요.
Google Cloud A3 VM은 8개의 NVIDIA H100 Tensor Core GPU를 기반으로 하므로, LLM 및 생성형 AI 워크로드를 훈련하고 제공하는 데 이상적입니다. A3 Mega VM은 A3 VM의 두 배에 달하는 GPU 간 네트워킹 대역폭을 제공하므로, 분산 AI 훈련 및 추론 워크로드에 이상적입니다.
Google Cloud G2 VM은 1개, 2개, 4개 또는 8개의 NVIDIA L4 Tensor Core GPU에 대한 액세스를 제공하므로, 생성형 AI 추론, AI 비디오 처리, HPC, 그래픽 렌더링, 시각화 등 다양한 워크로드를 가속화하는 데 이상적입니다.
Google Cloud는 1조 파라미터 규모의 모델을 위한 실시간 LLM 추론 및 대규모 훈련 성능을 갖추고 새로운 컴퓨팅 시대를 열어나가기 위해 NVIDIA Blackwell 플랫폼을 NVIDIA GB200 NVL72 및 HGXTM B200의 두 가지 구성으로 제공하는 최초의 클라우드 공급업체 대열에 속하게 될 예정입니다. NVIDIA GB200은 Google Cloud의 NVIDIA DGX™ Cloud를 통해 먼저 제공될 예정입니다.
NVIDIA는 Google Cloud Marketplace에서 포괄적이고 성능 최적화된 소프트웨어 스택을 제공하여 최첨단 NVIDIA 가속 인프라의 잠재력을 최대한 실현하고 Google Cloud에서 가속 솔루션의 구축과 관련된 복잡성을 줄여줍니다. 이를 통해 성능을 향상하고 배포 및 개발을 간소화하여 TCO를 절감할 수 있습니다.
WPP
NVIDIA DGX Cloud는 개발자에게 최신 NVIDIA 아키텍처에 대한 확장 가능한 전용 액세스를 제공하는 AI 플랫폼으로, 모든 계층에서 Google Cloud와 공동 설계되었습니다. 오늘날의 AI 워크로드에 최고의 성능을 제공하도록 최적화된 DGX Cloud에는 리소스 효율성 및 활용도의 극대화를 지원하는 NVIDIA AI 전문가에게 직접 액세스할 수 있는 기능이 포함되어 있습니다. DGX Cloud는 현재 Google Cloud에서 사용할 수 있으며, 곧 NVIDIA Grace™ Blackwell이 출시될 예정입니다.
Foretellix
NVIDIA AI Enterprise는 생성형 AI, 컴퓨터 비전, 음성 AI 등을 포함한 프로덕션급 AI 솔루션의 개발 및 배포를 간소화하는 클라우드 네이티브 플랫폼입니다. 사용하기 쉬운 마이크로서비스가 엔터프라이즈급 보안, 지원 및 안정성을 통해 최적화된 모델 성능을 제공하므로, AI에 기반하여 비즈니스를 운영하는 기업들이 프로토타입에서 프로덕션으로 원활하게 전환할 수 있습니다.
NVIDIA AI Enterprise의 일부인 NVIDIA NIM은 사용하기 쉬운 추론 마이크로서비스 세트로, 자연어 이해 및 생성이 필요한 AI 애플리케이션의 배포를 가속화합니다. NIM은 개발자들에게 업계 표준 API에 대한 액세스를 제공하여 강력한 코파일럿, 챗봇, AI 어시스턴트의 생성을 지원하는 동시에 IT 및 DevOps 팀이 자체 관리 환경에서 AI 모델을 손쉽게 셀프 호스팅할 수 있도록 지원합니다. NVIDIA NIM은 GCE, GKE 또는 Google Cloud Run에 배포할 수 있습니다.
NVIDIA와 Google Cloud는 풀 스택 NVIDIA AI 플랫폼의 강력한 기능을 광범위한 기본 Google Cloud 서비스에 적용하는 통합을 위해 긴밀히 협력하여 개발자에게 필요한 추상화 수준을 선택할 수 있는 유연성을 제공합니다. 이러한 통합을 통해 Google Cloud 고객은 엔터프라이즈급 NVIDIA AI 소프트웨어와 NVIDIA GPU의 컴퓨팅 성능을 결합하여 이미 익숙한 Google Cloud 서비스 내에서 애플리케이션 성능을 극대화할 수 있습니다.
NVIDIA AI 플랫폼의 성능과 GKE의 유연성 및 확장성을 결합하여 생성형 AI 훈련 및 추론 그리고 기타 컴퓨팅 집약적인 워크로드를 효율적으로 관리하고 확장해 보세요. GKE의 온디맨드 프로비저닝, 자동 확장, NVIDIA 멀티 인스턴스 GPU(MIG) 지원, GPU 시간 공유 기능이 최적의 리소스 활용을 보장합니다. 이를 통해 운영 비용을 최소화하는 동시에 까다로운 AI 워크로드에 필요한 컴퓨팅 성능을 제공할 수 있습니다.
프로덕션에서 AI 모델을 구축, 배포 및 확장하기 위한 완전한 관리형 통합 MLOps 플랫폼인 Google Cloud의 Vertex AI와 NVIDIA 가속 컴퓨팅의 성능을 결합해 보세요. Vertex AI Training, Prediction, Pipelines, Notebooks 내에서 최신 NVIDIA GPU 그리고 Triton™ 추론 서버와 같은 NVIDIA AI 소프트웨어를 활용하여 복잡한 인프라 관리 없이 생성형 AI 개발 및 배포를 가속화해 보세요.
NVIDIA RAPIDS™ Accelerator for Spark를 활용하여 Google Cloud의 완전한 관리형 데이터 처리 서비스인 Dataproc에서 코드 변경 없이 아파치 스파크 및 Dask 워크로드를 가속화해 보세요. 이를 통해 데이터 처리, 추출, 변환, 로드(ETL) 작업 및 머신 러닝 파이프라인을 가속화하는 동시에 인프라 비용을 크게 절감할 수 있습니다. RAPIDS Accelerator for Spark를 사용하면 클러스터를 프로비저닝하지 않고도 Dataproc Serverless 내에서 배치 워크로드의 속도를 높일 수 있습니다.
스트리밍 및 배치 분석을 포함한 다양한 데이터 처리 패턴을 실행하기 위한 관리형 서비스인 Google Cloud Dataflow에서 NVIDIA AI를 사용하여 머신 러닝 추론을 가속화하세요. 사용자는 NVIDIA TensorRT와 Apache Beam SDK의 통합을 통해 AI 모델의 추론 성능을 최적화하고 Dataflow에서 지원되는 NVIDIA GPU를 사용하여 데이터 처리 파이프라인 내에서 복잡한 추론 시나리오를 가속화할 수 있습니다.
Google Cloud Run에서 NVIDIA NIM을 통해 생성형 AI를 더 빠르게 배포해 보세요. Google Cloud Run은 Google Cloud의 인프라에 컨테이너를 배포하기 위한 완전한 관리형 서버리스 컴퓨팅 플랫폼입니다. Cloud Run의 NVIDIA GPU 지원을 통해 사용자는 NIM을 활용하여 인프라 관리를 추상화하는 서버리스 환경에서 성능을 최적화하고 더욱 빠르게 생성형 AI 모델을 프로덕션에 배포할 수 있습니다.
동적 워크로드 스케줄러를 사용하여 AI 훈련, 파인 튜닝, 실험과 같은 단기간의 워크로드를 위해 Google Cloud의 NVIDIA GPU에 손쉽게 액세스해 보세요. 유연한 스케줄링과 원자적 프로비저닝을 통해 사용자는 GKE, Vertex AI, Batch와 같은 서비스 내에서 필요한 컴퓨팅 리소스에 액세스하는 동시에, 리소스 활용도를 높이고 AI 워크로드 실행과 관련된 비용을 최적화할 수 있습니다.
NVIDIA는 Gemini 모델 개발에 사용된 것과 동일한 연구 및 기술을 기반으로 새롭게 최적화된 개방형 모델 제품군인 Gemma를 출시하기 위해 Google과 협력하고 있습니다. TensorRT-LLM을 사용하여 최적화된 릴리스를 통해 사용자는 NVIDIA RTX™ GPU가 있는 데스크탑만을 사용하여 LLM을 개발할 수 있습니다.
RAPIDS cuDF가 이제 Google Colab에 통합되었습니다. 개발자는 Google Colab GPU 인스턴스에서 pandas 코드를 최대 50배까지 즉시 가속화할 수 있으며, 데이터가 증가해도 pandas를 계속해서 성능 저하 없이 사용할 수 있습니다.
NVIDIA Inception 프로그램은 개발자 리소스 및 교육, 클라우드 크레딧에 대한 액세스, NVIDIA 소프트웨어 및 하드웨어 특별가, VC 커뮤니티에 노출될 기회를 통해 스타트업이 혁신을 가속화할 수 있도록 지원합니다.
NVIDIA 개인정보보호정책