A NVIDIA foi pioneira na computação acelerada para ultrapassar os limites da inovação para desenvolvedores, designers e criadores do mundo todo e transformar as maiores indústrias globais. A computação acelerada da NVIDIA, combinada com a flexibilidade, o alcance global e a escala do Google Cloud, acelera o tempo de solução e reduz o TCO da infraestrutura para cargas de trabalho de computação intensiva, como IA generativa, análise de dados, computação de alto desempenho (HPC), gráficos e games, onde quer que seja necessária.
A NVIDIA e o Google Cloud são parceiros em todas as camadas do stack de IA generativa, fornecendo acesso à infraestrutura de última geração, software de nível empresarial e microsserviços de inferência, além de otimizar modelos de base para acelerar o tempo do protótipo à implantação de produção.
A NVIDIA e o Google Cloud uniram forças para oferecer soluções de análise de dados inovadoras, permitindo que as empresas obtenham perspectivas valiosas a partir de grandes conjuntos de dados e desbloqueiem novas possibilidades com a tomada de decisões e inovação orientadas por dados.
A plataforma de computação acelerada da NVIDIA no Google Cloud ajuda desenvolvedores, cientistas, engenheiros e pesquisadores a lidar com cargas de trabalho complexas em áreas como ciências da vida, modelagem climática, manufatura, energia, simulações quânticas e serviços financeiros.
Leia como a Let’s Enhance, uma importante startup de visão computacional, usa a plataforma de IA da NVIDIA no Google Kubernetes Engine (GKE) para implantar seu serviço de edição de fotos com IA na produção, aumentando a taxa de transferência em 80% e reduzindo os custos em 34%.
Saiba como a Writer, uma plataforma de IA generativa completa para empresas, aproveita as GPUs NVIDIA H100 e L4 Tensor Core no GKE com o framework NVIDIA NeMo™ e TensorRT™-LLM para treinar e implantar mais de 17 grandes modelos de linguagem (LLMs) que escalam até 70 bilhões de parâmetros.
Ao aproveitar o poder dos microsserviços de inferência NVIDIA NIM™ no GKE com GPUs NVIDIA, a LiveX AI alcançou um aumento de 6,1 vezes na velocidade média de token. Esse aprimoramento permite que a LiveX AI ofereça experiências personalizadas aos clientes em tempo real, incluindo suporte adequado ao cliente, recomendações instantâneas de produtos e redução nas devoluções.
Selecione em um amplo portfólio das mais recentes GPUs NVIDIA no Google Compute Engine (GCE) para acelerar uma grande variedade de cargas de trabalho com uso intensivo de computação, incluindo treinamento LLM distribuído, inferência de IA em tempo real, análise intensiva em dados em frameworks de big data, simulações científicas e modelagem em HPC, bem como renderização de gráficos 3D fotorrealistas e ambientes virtuais imersivos.
A VM A3 do Google Cloud é equipada com oito GPUs NVIDIA H100 Tensor Core e é ideal para treinar e servir LLMs e cargas de trabalho de IA generativa. A A3 Mega VM oferece o dobro da largura de banda de rede GPU-para-GPU da A3 VM e é ideal para treinamento de IA distribuído e cargas de trabalho de inferência.
A VM do Google Cloud G2 oferece acesso a uma, duas, quatro ou oito GPUs NVIDIA L4 Tensor Core e é ideal para acelerar uma ampla variedade de cargas de trabalho, incluindo inferência de IA generativa, processamento de vídeo de IA, HPC, renderização de gráficos e visualização.
O Google Cloud estará entre os primeiros provedores de nuvem a oferecer a plataforma NVIDIA Blackwell em duas configurações, NVIDIA GB200 NVL72 e HGX™ B200, para possibilitar uma nova era de computação com inferência LLM em tempo real e desempenho de treinamento em larga escala para modelos na ordem de trilhões de parâmetros. O NVIDIA GB200 estará disponível primeiro com o NVIDIA DGX™ Cloud no Google Cloud.
A NVIDIA oferece um pacote de software abrangente e otimizada para desempenho diretamente no Google Cloud Marketplace para desbloquear todo o potencial da infraestrutura acelerada inovadora da NVIDIA e reduzir a complexidade da criação de soluções aceleradas no Google Cloud. Isso reduz o TCO por meio de desempenho aprimorado, implantação facilitada e desenvolvimento simplificado.
WPP
O NVIDIA DGX Cloud é uma plataforma de IA que oferece acesso escalável e dedicado à mais recente arquitetura NVIDIA para desenvolvedores, projetada em todas as camadas em conjunto com o Google Cloud. Otimizado para oferecer o melhor desempenho para as cargas de trabalho de IA atuais, o DGX Cloud inclui acesso direto aos especialistas em IA da NVIDIA, os quais ajudam a maximizar a eficiência e a utilização de recursos. O DGX Cloud está atualmente disponível no Google Cloud, com o NVIDIA Grace™ Blackwell que será lançado em breve.
Foretellix
O NVIDIA AI Enterprise é uma plataforma nativa de nuvem que simplifica o desenvolvimento e a implantação de soluções de IA de nível de produção, incluindo IA generativa, visão computacional, IA para fala e muito mais. Os microsserviços fáceis de usar proporcionam desempenho otimizado do modelo com segurança, suporte e estabilidade de nível empresarial para garantir uma transição suave do protótipo para a produção para empresas que executam seus negócios com IA.
O NVIDIA NIM, parte do NVIDIA AI Enterprise, é um conjunto de microsserviços de inferência fáceis de usar para acelerar a implantação de aplicações de IA que exigem compreensão e geração de linguagem natural. Ao oferecer aos desenvolvedores acesso a APIs padrão do setor, o NIM permite a criação de potentes copilotos, chatbots e assistentes de IA, ao mesmo tempo em que facilita que as equipes de IT e DevOps hospedem modelos de IA em seus próprios ambientes gerenciados. O NVIDIA NIM pode ser implantado no GCE, GKE ou Google Cloud Run.
A NVIDIA e o Google Cloud trabalham em estreita colaboração em integrações que levam a potência da plataforma de IA da NVIDIA de pacote completo para uma ampla variedade de serviços nativos do Google Cloud, oferecendo aos desenvolvedores a flexibilidade para escolher o nível de abstração de que precisam. Com essas integrações, os clientes do Google Cloud podem combinar a potência do software de IA da NVIDIA de nível empresarial e o poder computacional das GPUs da NVIDIA para maximizar o desempenho das aplicações nos serviços do Google Cloud com os quais já estão familiarizados.
Combine o poder da plataforma de IA da NVIDIA com a flexibilidade e escalabilidade do GKE para gerenciar e escalar com eficiência o treinamento e a inferência de IA generativa e outras cargas de trabalho com uso intensivo de computação. O provisionamento sob demanda, o dimensionamento automatizado, o suporte à GPU Multi-Instância (MIG) da NVIDIA e os recursos de compartilhamento de tempo da GPU do GKE garantem a utilização ideal dos recursos. Isso minimiza os custos operacionais e oferece o poder computacional necessário para cargas de trabalho de IA exigentes
Combine o poder da computação acelerada da NVIDIA com o Vertex AI do Google Cloud, uma plataforma MLOps unificada e totalmente gerenciada para criar, implantar e dimensionar modelos de IA em produção. Aproveite as mais recentes GPUs da NVIDIA e o software de IA da NVIDIA, como o Servidor de Inferência Triton™, no treinamento, previsão, pipelines e notebooks Vertex AI, para acelerar o desenvolvimento e a implantação de IA generativa sem as complexidades do gerenciamento de infraestrutura.
Aproveite o NVIDIA RAPIDS™ Accelerator para Spark para acelerar as cargas de trabalho do Apache Spark e Dask no Dataproc, o serviço de processamento de dados totalmente gerenciado do Google Cloud, sem alterações de código. Isso permite processamento de dados mais rápido, operações de extração, transformação e carregamento (ETL), e pipelines de machine learning, enquanto reduz substancialmente os custos de infraestrutura. Com o RAPIDS Accelerator para Spark, os usuários também podem acelerar as cargas de trabalho em lote dentro do Dataproc Serverless sem provisionar clusters.
Acelere a inferência de machine learning com a IA da NVIDIA no Google Cloud Dataflow, um serviço gerenciado para executar uma ampla variedade de padrões de processamento de dados, incluindo streaming e análise em lote. Os usuários podem otimizar o desempenho de inferência de modelos de IA usando a integração do NVIDIA TensorRT com o SDK do Apache Beam e acelerar cenários de inferência complexos em um pipeline de processamento de dados usando GPUs NVIDIA compatíveis com o fluxo de dados.
Acelere o caminho para implantar IA generativa mais rapidamente com o NVIDIA NIM no Google Cloud Run, uma plataforma de computação totalmente gerenciada e sem servidor para implantar contêineres na infraestrutura do Google Cloud. Com o suporte para GPUs NVIDIA no Cloud Run, os usuários podem aproveitar o NIM para otimizar o desempenho e acelerar a implantação de modelos de IA generativa na produção em um ambiente sem servidor que abstrai o gerenciamento de infraestrutura.
Tenha acesso fácil à capacidade da GPU NVIDIA no Google Cloud para cargas de trabalho de curta duração, como treinamento em IA, ajustes e experimentação, usando o Agendador de Cargas de Trabalho Dinâmico. Com agendamento flexível e provisionamento atômico, os usuários podem obter acesso aos recursos de computação de que precisam em serviços como GKE, Vertex AI e Batch, enquanto aprimoram a utilização de recursos e otimizam os custos associados à execução de cargas de trabalho de IA.
A NVIDIA está colaborando com o Google para lançar o Gemma, uma família de modelos abertos recém-otimizados, desenvolvida a partir da mesma pesquisa e tecnologia usadas para criar os modelos Gemini. Uma versão otimizada com TensorRT-LLM permite que os usuários desenvolvam com LLMs usando apenas um desktop com uma GPU NVIDIA RTX™.
O RAPIDS cuDF agora está integrado ao Google Colab. Os desenvolvedores podem acelerar instantaneamente o código Pandas até 50 vezes nas instâncias de GPU do Google Colab e continuar usando o Pandas à medida que os dados crescem, sem sacrificar o desempenho.
O programa NVIDIA Inception ajuda as startups a acelerar a inovação com recursos e treinamento para desenvolvedores, acesso a créditos de nuvem, preços exclusivos de software e hardware NVIDIA e oportunidades de exposição à comunidade de capital de risco.
Política de Privacidade da NVIDIA