Magnum IO

Pacote de Otimização de I/O para Rede e Armazenamento com Várias GPUs e Vários Nós

ATENDENDO À DEMANDA DE LARGURA DE BANDA DE CARGAS DE TRABALHO COM USO INTENSO DE COMPUTAÇÃO

As GPUs fornecem a potência exigida pelas cargas de trabalho com uso intenso de computação, mas o consumo de dados necessário aumenta a demanda por largura de banda de entrada/saída (I/O). O NVIDIA Magnum IO é o conjunto de APIs da NVIDIA que integra computação, redes, sistemas de arquivos e armazenamento para maximizar o desempenho de I/O de sistemas acelerados por várias GPUs e vários nós. Ele compartilha interface com bibliotecas CUDA-X para acelerar a I/O de uma ampla variedade de cargas de trabalho, desde AI à visualização.

DESEMPENHO DE I/O DE REDE E ARMAZENAMENTO OTIMIZADOS POR GPU

O Magnum IO integra elementos de infraestrutura para maximizar a funcionalidade e o desempenho de I/O de armazenamento e rede. Entre as principais vantagens, estão:

Desempenho de I/O Otimizado: ele desconsidera a CPU para habilitar a I/O direta entre a memória da GPU e o armazenamento de rede.

Equilíbrio e Utilização do Sistema: ele alivia a contenção de CPU para criar um sistema acelerado por GPU mais equilibrado e oferece uma largura de banda de I/O de pico, com até 10 vezes menos núcleos de CPU.

Integração Perfeita: ele oferece implementação otimizada para plataformas atuais e futuras, sendo as transferências de dados sensíveis à latência, sensíveis à largura de banda ou coletivas.

PACOTE DE OTIMIZAÇÃO DE I/O

O Magnum IO inclui tecnologias inovadoras de otimização de I/O, como NCCL, NVIDIA® GPUDirect RDMA e NVIDIA Fabric Manager. O armazenamento do GPUDirect é um dos principais recursos do pacote. Ele abre um caminho de dados direto entre a memória da GPU e o armazenamento, evitando totalmente a CPU. Esse caminho direto pode aumentar a largura de banda, diminuir a latência e reduzir a carga de utilização da CPU e da GPU. Resolver o problema de I/O com Magnum IO garante um sistema equilibrado.

PACOTE DE OTIMIZAÇÃO DE I/O

Saiba mais sobre as tecnologias que impulsionam o Magnum IO.