Profesional Certificado por NVIDIA
(NCP-GENL)
La certificación profesional en LLM de IA Generativa es una credencial de nivel intermedio que valida la capacidad de un candidato para diseñar, entrenar y ajustar LLM de vanguardia, aplicando estrategias de optimización y técnicas de entrenamiento distribuidas avanzadas para ofrecer soluciones de IA de alto desempeño. El examen es en línea y se supervisa de forma remota, incluye 60–70 preguntas y tiene un límite de tiempo de 120 minutos.
Revise cuidadosamente nuestras preguntas frecuentes de certificación y políticas de exámenes antes de programar su examen.
Si tiene alguna pregunta, contáctenos aquí.
Nota importante: para acceder al examen, deberá crear una cuenta de Certiverse.
La siguiente tabla proporciona una descripción general de las áreas temáticas cubiertas en el examen de certificación y especifica cuánto del examen se centra en ese tema.
| Áreas Temáticas | % del Examen | Temas Abarcados |
|---|---|---|
| Arquitectura de LLM | 6 % | Comprensión y aplicación de estructuras y mecanismos fundamentales de LLM. |
| Ingeniería de prompts | 13 % | Adaptación de los LLM a nuevos dominios, tareas o distribuciones de datos a través de la ingeniería de instrucciones, la cadena de pensamiento (CoT), la adaptación de dominios, el aprendizaje de cero/uno/pocos ejemplos y el control de resultados. |
| Preparación de datos | 9 % | Preparación de datos para el preentrenamiento, el ajuste fino o la inferencia mediante la limpieza, la selección, el análisis y la organización de conjuntos de datos, la tokenización y la gestión de vocabulario. |
| Optimización de Modelos | 17 % | Implementación de LLM en entornos de producción. Incluye el desarrollo de pipelines de inferencia en contenedores, la configuración del servicio y la orquestación de modelos (por ejemplo, Kubernetes, NVIDIA Triton™), la implementación del monitoreo en tiempo real, la optimización de la implementación en función de la latencia y el rendimiento, y la administración de actualizaciones de modelos. |
| Ajuste Fino | 13 % | Creación de documentos de mapeo de datos conceptuales, importaciones, exportaciones y scripts personalizados para el intercambio de datos con OpenUSD. |
| Evaluación | 7 % | Evaluación de LLM a través de métricas cuantitativas y cualitativas, diseño de frameworks, evaluación comparativa, análisis de errores y evaluación escalable. |
| Aceleración y Optimización de GPU | 14 % | Escalado y optimización del entrenamiento/la inferencia de LLM en hardware de GPU. Implica configuraciones de GPU múltiples o distribuidas, técnicas de paralelismo, resolución de problemas, optimización de memoria y lotes, y creación de perfiles de desempeño. |
| Implementación de Modelos | 9 % | Implementación de LLM en la producción a través de pipelines en contenedores, orquestación escalable, servicio eficiente por lotes/modelos y monitoreo en tiempo real. |
| Monitoreo y Confiabilidad de la Producción | 7 % | Establecimiento de paneles de monitoreo y métricas de confiabilidad, mientras se rastrean registros y anomalías para el análisis de causa raíz y la evaluación comparativa de los agentes en comparación con versiones anteriores. Implementación del ajuste automatizado, el reentrenamiento y el control de versiones para garantizar el tiempo de actividad continuo, la transparencia y la confianza en las implementaciones de producción. |
| Seguridad, Ética y Cumplimiento | 5 % | Responsable de las prácticas de IA a lo largo de todo el ciclo de vida de los LLM. Incluye la auditoría de sesgo y equidad, la implementación de barreras de seguridad, la configuración del monitoreo para el cumplimiento ético y la aplicación de estrategias de detección y mitigación de sesgos para garantizar la implementación y el uso responsables de los LLM. |
Explore la Guía de Estudio