Profissional Certificado pela NVIDIA
(NCP-GENL)
A certificação profissional em LLMs de IA Generativa é uma credencial de nível intermediário que valida a capacidade do candidato de projetar, treinar e ajustar LLMs de ponta, aplicando técnicas avançadas de treinamento distribuído e estratégias de otimização para oferecer soluções de IA de alto desempenho. O exame é on-line e supervisionado remotamente, inclui 60 a 70 perguntas e tem um limite de tempo de 120 minutos.
Revise cuidadosamente nossas Perguntas Frequentes de certificação e políticas de exame antes de agendar seu exame.
Se você tiver dúvidas, fale conosco aqui.
Nota Importante: para acessar o exame, você precisará criar uma conta do Certiverse.
A tabela abaixo fornece uma Visão Geral das áreas cobertas no exame de certificação e quanto do exame está focado nesse assunto.
| Áreas Temáticas | % do Exame | Tópicos Abordados |
|---|---|---|
| Arquitetura de LLM | 6% | Compreensão e aplicação de estruturas e mecanismos básicos de LLM. |
| Engenharia de prompts | 13% | Adaptação de LLMs a novos domínios, tarefas ou distribuições de dados por meio de engenharia de prompts, cadeia de pensamento (CoT), adaptação de domínio, aprendizagem zero/one/few-shot e controle de saída. |
| Preparação de Dados | 9% | Preparação de dados para pré-treinamento, ajuste fino ou inferência, limpando, selecionando, analisando e organizando conjuntos de dados, tokenização e gerenciamento de vocabulário. |
| Otimização de modelos | 17% | Implantação de LLMs em ambientes de produção. Inclui a criação de pipelines de inferência em contêineres, a configuração de atendimento e orquestração de modelos (por exemplo, Kubernetes, NVIDIA Triton™), a implementação de monitoramento em tempo real, a otimização da implantação para latência e taxa de processamento e o gerenciamento de atualizações de modelos. |
| Ajuste fino | 13% | Criação de documentos de mapeamento de dados conceituais, importadores personalizados, exportações e scripts para troca de dados com OpenUSD. |
| Avaliação | 7% | Avaliação de LLMs por meio de métricas quantitativas e qualitativas, design de framework, benchmarking, análise de erros e avaliação escalável. |
| Aceleração e otimização de GPU | 14% | Escalonamento e otimização de treinamento/inferência de LLM em hardware de GPU. Envolve configurações de várias GPUs/distribuídas, técnicas de paralelismo, solução de problemas, otimização de memória e lotes e análise de desempenho. |
| Implantação de modelos | 9% | Implantação de LLMs em produção por meio de pipelines em contêineres, orquestração escalável, serviço eficiente de modelos/lotes e monitoramento em tempo real. |
| Monitoramento e confiabilidade da produção | 7% | Criação de painéis de monitoramento e métricas de confiabilidade, enquanto rastreia registros e anomalias para análise de causa-raiz e benchmarking de agentes em relação às versões anteriores. Implementação de ajustes automatizados, retreinamento e controle de versões para garantir tempo de atividade contínuo, transparência e confiança em implantações de produção. |
| Segurança, Ética e Conformidade | 5% | Responsável por práticas de IA durante todo o ciclo de vida do LLM. Inclui auditoria de viés e justiça, implementação de salvaguardas, configuração de monitoramento para conformidade ética e aplicação de estratégias de detecção e mitigação de viés para garantir a implantação e o uso responsáveis de LLMs. |
Conheça o Guia de Estudos