NVIDIA NeMo
Framework

Construye, personaliza e implanta modelos generativos de IA.

What is the NVIDIA NeMo Framework?

El marco NVIDIA NeMo™, parte de la plataforma NVIDIA AI, es un marco empresarial integral y nativo en la nube para crear, personalizar e implantar modelos generativos de IA con miles de millones de parámetros.

TEl marco NeMo proporciona un flujo de trabajo acelerado para el entrenamiento con técnicas de paralelismo 3D, una selección de varias técnicas de personalización e inferencia optimizada a escala de modelos a gran escala para aplicaciones de lenguaje e imagen, con configuraciones multi-GPU y multi-nodos. NeMo hace que el desarrollo de modelos de IA generativa sea fácil, rentable y rápido para las empresas.

 

Cómo NeMo Framework construye, entrena y despliega grandes modelos de lenguaje.

Soporte para todas las modalidades

Los marcos NeMo admiten el desarrollo de modelos de base texto-a-texto, texto-a-imagen e imagen-a-imagen.

Idioma

  • BERT
  • GPT-3
  • T5
  • T5-MoE
  • Inform

Imagen

  •  Stable Diffusion v1.5
  •  VisionTransformers (ViT) 
  •  CLIP
  •  Instruct-Pix2Pix

Descubra las ventajas

El entrenamiento más rápido en la GPU

Utilice las técnicas de entrenamiento más avanzadas para maximizar el rendimiento y minimizar el tiempo de entrenamiento de modelos de cimentación con miles de millones o billones de parámetros.

cilidad de uso

Marco nativo en la nube con todas las dependencias preempaquetadas e instaladas con recibos validados para el entrenamiento de modelos de IA generativa de lenguaje e imagen hasta la convergencia y despliegue para la inferencia.

otalmente flexible

Un enfoque de código abierto que ofrece total flexibilidad en todo el proceso, desde el procesamiento de datos hasta el entrenamiento y la inferencia de modelos de IA generativa.

Ejecución en el cloud y en local

Entrene e implemente modelos de fundamentos de cualquier tamaño en cualquier infraestructura de GPU. Compatible con todos los sistemas NVIDIA DGX™, NVIDIA DGX Cloud™, Microsoft Azure, Oracle Cloud Infrastructure y Amazon Web Services. 

Personalice

Ofrece herramientas para personalizar los modelos de fundamentos para la hiperpersonalización empresarial.

Calidad empresarial

Contenedores reforzados, probados y verificados en batalla construidos para empresas.

Pruebe NeMo Framework a través de un laboratorio práctico y gratuito en NVIDIA LaunchPad

Principales características del producto

Técnicas de entrenamiento de última generación

El marco NeMo ofrece altos niveles de eficiencia de entrenamiento, haciendo posible el entrenamiento de modelos de cimentación a gran escala, utilizando técnicas de paralelismo 3D como:

  • Paralelismo tensorial para escalar modelos dentro de nodos.
  • Paralelismo de datos y pipelines para escalar datos y modelos a través de miles de GPUs.
  • Paralelismo de secuencias para distribuir la memoria de activación a través de dispositivos paralelos de tensor.

Además, el recálculo selectivo de la activación optimiza el recálculo y el uso de memoria en todos los dispositivos de tensor paralelo durante la retropropagación.

Herramientas de personalización

NeMo framework hace que la IA empresarial sea práctica al ofrecer herramientas para:

  • Incluir conocimientos específicos del dominio: Codifique e integre su IA con la información en tiempo real de su empresa para proporcionar las respuestas más recientes, utilizando NVIDIA Inform.
  • Incluir conocimientos específicos del dominio: Codifique e integre su IA con la información en tiempo real de su empresa para proporcionar las respuestas más recientes, utilizando NVIDIA Inform.
  • Mejorar continuamente el modelo: Las técnicas de aprendizaje de refuerzo con retroalimentación humana (RLHF) permiten que su modelo empresarial se vuelva más inteligente con el tiempo, alineado con las intenciones humanas..

Inferencia optimizada

Implemente modelos generativos de IA para inferencia utilizando NVIDIA Triton Inference Server™. Gracias a las potentes optimizaciones de FasterTransformer, puede lograr un rendimiento de inferencia de precisión, latencia y rendimiento de última generación en configuraciones de una GPU, varias GPU y varios nodos.

Preprocesamiento exhaustivo

Traiga su propio conjunto de datos y tokenice los datos a un formato digerible. NeMo incluye funciones completas de preprocesamiento para el filtrado, la deduplicación, la combinación y el formateo de datos en conjuntos de datos lingüísticos, en Piles y en C4 multilingüe (mC4). Esto ayuda a los investigadores e ingenieros a ahorrar meses de desarrollo y tiempo de cálculo, lo que les permite centrarse en la creación de aplicaciones.

Recetas y herramientas fáciles de usar

NeMo framework hace posible la IA generativa desde el primer día con scripts preempaquetados, ejemplos de referencia y documentación sobre todo el pipeline.

La creación de modelos básicos también resulta sencilla gracias a una herramienta de autoconfiguración, que busca automáticamente las mejores configuraciones de hiperparámetros para optimizar la formación y la inferencia para cualquier configuración multi-GPU, formación o restricciones de despliegue.

Personaliza y utiliza fácilmente modelos generativos de IA con los servicios de lenguaje e imagen NVIDIA NeMo

Servicio NeMo

Servicio en la nube para la hiperpersonalización empresarial y el despliegue a escala de grandes modelos lingüísticos inteligentes.

Servicio Picasso

Servicio acelerado en la nube para empresas que necesitan modelos generativos de IA personalizados para crear imágenes, vídeos y contenidos 3D fotorrealistas de alta resolución.

Los clientes aceleran las aplicaciones de IA generativa y LLM con NVIDIA NeMo Framework

Acelerar las aplicaciones industriales con LLM

AI Sweden ha acelerado las aplicaciones industriales de los LLM poniendo al alcance del ecosistema nórdico la potencia de un modelo de 100.000 millones de parámetros para las lenguas regionales. AI Sweden está digitalizando los registros históricos de Suecia y construyendo modelos lingüísticos a partir de estos datos no estructurados que pueden comercializarse en aplicaciones empresariales.

Image Courtesy of Korea Telecom

Creación de nuevas experiencias de cliente con LLM

El principal operador de telefonía móvil de Corea del Sur construye LLMs de mil millones de parámetros entrenados con la plataforma NVIDIA DGX SuperPOD y el framework NeMo para impulsar altavoces inteligentes y centros de atención al cliente.

Descubra más recursos

Implantación de un modelo GPT-3 de 1.300 millones de parámetros con NVIDIA NeMo Framework

Aprende a descargar, optimizar e implantar un modelo GPT-3 de 1.300 millones de parámetros con NeMo framework y NVIDIA Triton Inference Server. 

Entrenamiento a escala y despliegue eficientes de LLM con NeMo Framework

Aprenda a preprocesar datos en un entorno multinodo, seleccionar automáticamente los mejores hiperparámetros para minimizar el tiempo de entrenamiento para múltiples configuraciones GPT-3 y T5, entrenar el modelo a escala y desplegar el modelo en un entorno de producción multinodo con un conjunto de scripts fáciles de usar.

Laboratorio práctico gratuito en NVIDIA LaunchPad

Inicie la andadura de su empresa en LLM utilizando configuraciones de hiperparámetros preajustadas para modelos GPT-3. Aprende a entrenar un modelo de PLN a gran escala con el framework NeMo.

Empieza ahora con NVIDIA NeMo Framework