NVIDIA Base Command Manager

Soluções de infraestrutura de IA

Grids de IA

Escale aplicações nativas de IA orquestrando cargas de trabalho em infraestrutura de IA distribuída geograficamente.

Visão Geral

Infraestrutura distribuída para IA generativa, baseada em agentes e física

As aplicações de IA modernas são em tempo real, hiperpersonalizadas e com uso intensivo de dados, atendendo a milhões de usuários, agentes e máquinas em todo o mundo. As operadoras de telecomunicações estão posicionadas de forma única para atender a essa demanda, transformando sua infraestrutura existente em grids de IA, trazendo a IA para mais perto de onde a inteligência é usada.

Uma grid de IA é uma plataforma de infraestrutura de IA distribuída, interconectada e orquestrada que executa cada workload onde ela tem melhor desempenho. Ele conecta fábricas de IA com hubs regionais e locais no edge, para que dados, modelos e agentes possam se mover com segurança em locais distribuídos operando como um sistema unificado. 

A NVIDIA fornece o Stack de computação acelerada, rede e software que impulsiona as grids de IA, ajudando as operadoras a desbloquear rapidamente a capacidade de IA distribuída e impulsionar novas experiências nativas de IA

Líderes de Telecomunicações e da Nvidia Criam Redes de IA para Otimizar a Inferência em Redes Distribuídas

À medida que as aplicações nativas de IA escalam para mais usuários, agentes e dispositivos, a rede de telecomunicações está se tornando a próxima fronteira para a distribuição de IA.

Crie e implante grids de IA com facilidade com a NVIDIA

O design de referência da grid de IA da NVIDIA oferece aos operadores uma maneira unificada de criar, implantar e orquestrar IA em locais distribuídos.

Benefícios

Execute todas os workloads de IA no local ideal

Latência previsível

Mantenha os serviços nativos de IA responsivos, executando a inferência na infraestrutura mais próxima dos usuários, agentes e máquinas. Isso ajuda as operadoras a atender a acordos de nível de serviço (SLAs) rigorosos para experiências de voz, visão e controle em tempo real.

Melhor economia de tokens

Execute cargas de trabalho com uso intensivo de tokens em nós com a computação e a rede mais econômicas, reduzindo o volume de dados na rede e reduzindo os custos de saída sem sacrificar a qualidade do serviço.

Maior utilização e resiliência

Trate muitos sites distribuídos como um único pool de capacidade de IA para aumentar a utilização de GPU e reduzir recursos ociosos. Se um site falhar, as cargas de trabalho são reequilibradas automaticamente em toda a rede para manter a continuidade do serviço.

Simultaneidade em escala

Execute serviços nativos de IA em muitos sites distribuídos para lidar com grandes surtos de usuários, aplicações e agentes simultâneos, mantendo qualidade consistente de experiência e custo.

Produtos

As bases para uma grid de IA

A NVIDIA oferece uma plataforma unificada para equipar sites distribuídos com infraestrutura de IA completa, transformando-os em redes de IA conectadas e orquestradas.

GPUs de alto desempenho

Em fábricas de IA centralizadas, os sistemas em escala de rack, como o NVIDIA GB300 NVL72, oferecem taxa de transferência extrema para treinamento, ajuste fino e cargas de trabalho de raciocínio em larga escala. Em sites de rede distribuída, as GPUs NVIDIA RTX PRO™ 6000 Blackwell Server Edition fornecem uma plataforma de inferência versátil e econômica que pode se encaixar na infraestrutura de telecomunicações existente com modernização mínima.

NVIDIA Spectrum-X Ethernet

Por meio do acesso remoto direto à memória (RDMA) Over Converged Ethernet (RoCE), do roteamento adaptativo e do controle de congestionamento otimizado, o NVIDIA Spectrum-X™ Ethernet acelera o desempenho do armazenamento em quase 50% e reduz os gargalos de comunicação. Com ela, as empresas podem escalar aplicações de IA com eficiência e maximizar a utilização do sistema de IA.

DPUs NVIDIA BlueField

As DPUs NVIDIA® BlueField® descarregam, aceleram e isolam serviços de infraestrutura em fábricas de IA e ambientes distribuídos globalmente, permitindo que vários locatários e cargas de trabalho compartilhem com segurança e eficiência uma infraestrutura comum de alto desempenho. As operadoras de telecomunicações integram o BlueField para aprimorar a segurança e otimizar a taxa de transferência e a eficiência de IA.

TensorRT LLM

O NVIDIA TensorRT™ LLM é uma biblioteca de código aberto para inferência de grandes modelos de linguagem (LLM) de alto desempenho e em tempo real em GPUs da NVIDIA. Com um tempo de execução modular de Python, autoria nativa de PyTorch e uma API de produção estável, ele é otimizado para maximizar a taxa de transferência, minimizar custos e oferecer experiências rápidas ao usuário.

NVIDIA Dynamo

O NVIDIA Dynamo é um framework de serviço de inferência distribuída para implantar modelos em ambientes de vários nós em escala de fábricas de IA. Ela simplifica o serviço distribuído, desagregando a inferência, otimizando o roteamento e estendendo a memória por meio do cache de dados para camadas de armazenamento econômicas.

Microsserviços NVIDIA NIM

O NVIDIA NIM™ é um conjunto de microsserviços de inferência fáceis de usar, projetados para acelerar a implantação de modelos-base e manter os dados seguros. O NVIDIA NIM é otimizado para inferência em escala empresarial.

Casos de Uso

Inteligência distribuída em ação

Explore como as grids de IA com tecnologia da NVIDIA permitem uma nova classe de aplicações nativas de IA que exigem acesso à inteligência em tempo real e com eficiência de custos em escala.

IA Física

A IA física permite que robôs, veículos, câmeras e sistemas de IoT percebam, raciocinem e ajam no mundo físico. As grids de IA permitem que o NVIDIA Metropolis execute IA de visão em escala de cidade perto de câmeras para análise em tempo real, enquanto robôs autônomos transferem o planejamento e o raciocínio mais pesados para locais próximos quando a computação incorporada não é suficiente.

IA em tempo real

Os serviços de IA interativos, como assistentes de AI conversacional, dependem de um controle rígido de latência de ponta a ponta e de jitter para se sentirem naturais e responsivos. As grids de IA executam essas cargas de trabalho em nós fisicamente próximos dos dados, preservando a margem de latência e roteando cada solicitação para os melhores recursos disponíveis, mesmo durante picos de demanda ou interrupções parciais.

Hiperpersonalização

Assistentes de IA personalizados, experiências de mídia e esportes e aplicações empresariais devem adaptar respostas em tempo real para milhares ou milhões de sessões simultâneas. Em uma grid de IA, os operadores podem armazenar em cache o contexto do usuário ou do locatário em nós regionais e executar a lógica de personalização e geração mais perto dos usuários, melhorando a latência de cauda enquanto mantêm a economia da personalização sempre ativa sustentável.

Funções de rede nativas de IA

Cargas de trabalho de rede, como RAN, gerenciamento de tráfego e otimização no plano do usuário, dependem cada vez mais da IA para analisar fluxos e tomar decisões em tempo real. As redes de IA executam essas funções de rede nativas de IA na mesma infraestrutura distribuída das aplicações, melhorando a utilização e permitindo roteamento mais inteligente, aplicação de políticas e qualidade da experiência em toda a rede.

Próximos Passos

Que Tal Começar Agora?

Crie redes de IA em escala com o design de referência do Grid de IA da NVIDIA, fornecendo um Stack unificado de hardware e software que transforma sites distribuídos em infraestrutura de IA conectada e orquestrada.

Fale Conosco

Faça perguntas ou solicite mais informações. Nossos especialistas estão aqui para ajudar.

Mantenha-se em Dia com as Notícias da NVIDIA

Inscreva-se para receber as mais recentes notícias de IA e telecomunicações da NVIDIA.