Este workshop aborda as ferramentas e técnicas fundamentais para acelerar aplicações em C e C++ para execução em GPUs altamente paralelas com CUDA®. Você aprenderá a escrever código, configurar a paralelização do código com CUDA, otimizar a migração de memória entre a CPU e o acelerador da GPU e implementar o workflow estudado em uma nova tarefa: acelerar um simulador de partículas totalmente funcional, mas apenas com CPU, para aumentar significativamente o desempenho. Ao final do workshop, você terá acesso a recursos adicionais para criar novas aplicações aceleradas por GPU por conta própria.

 

Objetivos de Aprendizagem
 

Ao final do workshop, você terá conhecimento das ferramentas e técnicas fundamentais para aplicações em C e C++ aceleradas por GPU com CUDA. Habilidades adquiridas:
  • Escrever código para execução por um acelerador de GPU
  • Expor e expressar dados e paralelismo a nível de instrução em aplicações em C e C++ usando CUDA
  • Utilizar memória gerenciada pela CUDA e otimizar a migração de memória usando a busca antecipada assíncrona
  • Usar perfiladores visuais e de linha de comando para guiar seu trabalho
  • Utilizar fluxos simultâneos para o paralelismo a nível de instrução
  • Escrever aplicações em CUDA C e C++ aceleradas por GPU ou refatorar aplicações existentes apenas para CPU usando uma abordagem orientada por perfil

Faça download do datasheet do workshop (PDF de 70KB)

Resumo do Workshop

Introdução
(15 minutos)
  • Conhecer o instrutor.
  • Criar uma conta em courses.nvidia.com/join
Acelerando Aplicações com CUDA C e C++
(120 minutos)

    Aprender a sintaxe e os conceitos essenciais para escrever aplicações em C e C++ habilitadas para GPU com CUDA:

  • Escrever, compilar e executar código para GPU.
  • Controlar a hierarquia de threads paralelos.
  • Alocar e liberar memória para GPU.
Intervalo (60 minutos)
Gerenciando Memória de Aplicação Acelerada com CUDA C e C++
(120 minutos)

    Conhecer o perfilador de linha de comando e a memória gerenciada por CUDA, com foco nas melhorias de aplicações orientadas por observação e na ampla compreensão do comportamento da memória gerenciada:

  • Perfilar código para CUDA com o perfilador de linha de comando.
  • Aprender mais sobre memória unificada.
  • Otimizar o gerenciamento de memória unificada.
Intervalo (15 minutos)
Streaming Assíncrono e Perfilagem Visual para Aplicações Aceleradas com CUDA C e C++
(120 minutos)

    Identificar oportunidades para melhorar o gerenciamento da memória e o paralelismo a nível de instrução:

  • Perfilar código para CUDA com Sistemas NVIDIA Nsight.
  • Usar fluxos simultâneos de CUDA.
Revisão Final
(15 minutos)
  • Revisar os principais aprendizados e fazer perguntas.
  • Concluir a avaliação para ganhar o certificado.
  • Responder à pesquisa do workshop.
 

Detalhes do Workshop

Duração: 8 horas

Valor: Fale conosco para consultar sobre valores.

Pré-requisitos:

  • Competência básica em C e C++, incluindo familiaridade com tipos variáveis, loops, declarações condicionais, funções e manipulações de arrays
  • Não é necessário ter conhecimento prévio de programação em CUDA

Tecnologias: NVIDIA® Nsight, nsys

Certificado: após a conclusão bem-sucedida da avaliação, os participantes receberão um certificado do DLI da NVIDIA que reconhece a competência no assunto e contribui para o desenvolvimento da carreira e vida profissional.

Requisitos de Hardware: desktop ou notebook capaz de executar a versão mais atual do Chrome ou Firefox. Cada participante terá acesso exclusivo a um servidor totalmente configurado e acelerado por GPU no cloud.

Idiomas: inglês, japonêscoreano, chinês simplificado, chinês tradicional

Próximos Workshops

Se a sua empresa tem interesse em aprimorar e desenvolver habilidades importantes de AI, ciência de dados acelerada ou computação acelerada, solicite um treinamento ministrado por instrutor do DLI da NVIDIA.

Perguntas?