Maneras de empezar a usar NVIDIA NeMo

Gestione el ciclo de vida de los agentes de IA con herramientas y tecnologías para crear, supervisar y optimizar agentes de IA en la producción.

El trayecto desde los modelos de IA hasta las aplicaciones de IA de agentes

Experimente la plataforma de extremo a extremo y lista para empresas para gestionar agentes de IA a lo largo de su ciclo de vida.

1

Pruebe modelos de base optimizados por NVIDIA, como NVIDIA Nemotron™.

2

Cree, supervise y optimice agentes de IA con NVIDIA NeMo™.

3

Empiece a crear sus soluciones de IA con NVIDIA Blueprints.

Herramientas para gestionar el ciclo de vida de los agentes de IA

El conjunto de software de NVIDIA NeMo para gestionar el ciclo de vida de los agentes de IA incluye NeMo Data Designer, NeMo Curator, NeMo Customizer y NeMo Evaluator para la creación; NeMo Retriever, NeMo Guardrails y NVIDIA NIM™ para la implementación; y NeMo Agent Toolkit para la optimización continua.

Preguntas frecuentes

NVIDIA NeMo es un conjunto de software modular y listo para empresas para gestionar el ciclo de vida de los agentes de IA, creando, implementando y optimizando sistemas de agentes, desde la selección de datos, la personalización y la evaluación de modelos, hasta la implementación, la orquestación y la optimización continua. Se integra a la perfección con los ecosistemas y plataformas de IA existentes para crear una base para desarrollar agentes de IA, acelerando el camino hacia la producción de sistemas autónomos en un entorno local, en cualquier nube o en un entorno híbrido. Admite el escalado rápido y la creación sin esfuerzo de rotores de datos que mejoran continuamente los agentes de IA con la información más reciente.

NeMo está disponible como código abierto y se admite como parte de NVIDIA AI Enterprise. Se pueden encontrar detalles de precios y licencias aquí.

NeMo se puede utilizar para personalizar modelos lingüísticos de gran tamaño (LLM), modelos de lenguaje de visión (VLM), reconocimiento de voz automático (ASR) y modelos de texto a voz (TTS).

NVIDIA AI Enterprise incluye soporte empresarial estándar de NVIDIA. Para obtener más soporte y servicios disponibles, como soporte crítico para las empresas de NVIDIA, un administrador técnico de cuentas, capacitación y servicios profesionales, consulte la Guía de soporte y servicios empresariales de NVIDIA.

La plataforma NVIDIA NeMo es una solución de IA generativa de código abierto creada para investigadores y desarrolladores que buscan control detallado y flexibilidad en el ámbito del código para crear modelos de IA generativa a escala de forma eficiente. Admite el aprendizaje previo, posterior al entrenamiento y por refuerzo de modelos de IA generativa multimodal.

Los microservicios NVIDIA NeMo son una oferta modular preparada para empresas, basada en API, que se extiende en el marco de NeMo, creada específicamente para permitir a los desarrolladores personalizar e implementar agentes de IA a escala de forma fácil y rápida. Simplifican el ajuste preciso, la evaluación, la protección y la generación de datos sintéticos de modelos. Se integran a la perfección en las plataformas de IA existentes, lo que permite a las empresas acelerar el desarrollo de agentes de IA personalizados y optimizarlos continuamente a través de flujos de trabajo de rotores de datos.

NeMo Data Designer es un microservicio creado específicamente para desarrolladores de IA que proporciona una forma programática de generar datos sintéticos a través de esquemas configurables y modelos de generación impulsados por IA. Está diseñado para integrarse a la perfección en su flujo de trabajo de desarrollo de IA.

NeMo Curator es una biblioteca de código abierto que mejora la precisión de modelos de IA generativa al seleccionar conjuntos de datos multimodales de alta calidad. Consta de un conjunto de módulos de Python expresados como interfaces API que utilizan Dask, cuDF, cuGraph y Pytorch para escalar tareas de selección de datos, como descarga de datos, extracción de texto, limpieza, filtrado, deduplicación exacta/difusa y clasificación de texto a miles de núcleos de procesamiento

NeMo Customizer es un microservicio de alto rendimiento y escalable que simplifica la personalización y la alineación de LLM para casos de uso específicos de dominio utilizando técnicas avanzadas de ajuste preciso y aprendizaje de refuerzo.

NeMo Auditor audita los LLM al ejecutar trabajos de auditoría que sondean el modelo con una variedad de indicaciones para identificar vulnerabilidades. Puede utilizar los resultados para ayudar a evaluar la seguridad de modelos y sistemas.

NeMo Evaluator es un microservicio diseñado para la evaluación rápida y fiable de modelos LLM y procesos RAG personalizados. Abarca diversas pruebas de referencia con métricas predefinidas, incluidas evaluaciones humanas y técnicas de «LLM como juez». Se pueden implementar simultáneamente múltiples trabajos de evaluación en Kubernetes, en plataformas de nube o centros de datos preferidos a través de llamadas API, lo cual permite resultados agregados eficientes.

NeMo Guardrails es un microservicio destinado a garantizar la idoneidad y la seguridad en aplicaciones inteligentes con modelos lingüísticos de gran tamaño. Protege a las organizaciones que supervisan los sistemas de LLM.

NeMo Guardrails permite a los desarrolladores configurar tres tipos de límites:

  • Las barreras de protección locales evitan que las aplicaciones se desvíen hacia áreas no deseadas. Por ejemplo, evitan que los asistentes de servicio de atención al cliente respondan preguntas sobre el clima.
  • Las barreras de protección de seguridad garantizan que las aplicaciones respondan con información precisa y apropiada. Pueden filtrar el lenguaje no deseado y asegurarse de que solo se haga referencia a fuentes creíbles.
  • Las barreras de protección de seguridad garantizan que las aplicaciones solo se conecten a aplicaciones externas de terceros que se sabe que son seguras.

NeMo RL es una biblioteca de código abierto, parte del kit de herramientas del marco NeMo, que ofrece algoritmos de aprendizaje de refuerzo avanzados y entrenamiento posterior escalable para optimizar y alinear agentes de IA a escala empresarial.

NeMo Retriever es una colección de modelos de Nemotron RAG líderes del sector que ofrecen una precisión del 50 % mejor, una extracción de PDF multimodal 15 veces más rápida y una eficiencia de almacenamiento 35 veces mejor, lo que permite a las empresas crear procesos de RAG que proporcionan información empresarial en tiempo real. NeMo Retriever garantiza la privacidad de los datos y se conecta sin problemas a los datos propietarios dondequiera que residan, lo que permite una recuperación segura y de nivel empresarial.

La generación aumentada por recuperación es una técnica que permite a los LLM crear respuestas a partir de la información más reciente, conectándolos a la base de conocimientos de la empresa. NeMo trabaja con varias herramientas de terceros y de la comunidad, incluidas Milvus, Llama Index y LangChain, para extraer fragmentos relevantes de información de la base de datos vectoriales y alimentarlos al LLM para generar respuestas en lenguaje natural. Explore la página de Chatbot de IA usando el flujo de trabajo de RAG para comenzar a crear chatbots de IA de calidad de producción que pueden responder con precisión a preguntas sobre los datos de su empresa.

 

NVIDIA ofrece flujos de trabajo de IA a modo de ejemplos de referencia empaquetados y nativos en la nube que ilustran cómo se pueden aprovechar los entornos de IA de NVIDIA para crear soluciones de IA. Con modelos entrenados previamente, canalizaciones de inferencia y entrenamiento, Jupyter Notebooks y gráficos Helm, los flujos de trabajo de IA aceleran la ruta hacia la entrega de soluciones de IA.

Cree rápidamente sus soluciones de IA generativa con estos flujos de trabajo integrales:

NVIDIA NIM, parte de NVIDIA AI Enterprise, es un tiempo de ejecución fácil de usar diseñado para acelerar la implementación de IA generativa en todas las empresas. Este versátil microservicio admite un amplio espectro de modelos de IA, desde modelos de comunidad de código abierto hasta modelos de NVIDIA AI Foundation, así como modelos de IA personalizados a medida. Construido sobre los sólidos cimientos de los motores de inferencia, está diseñado para facilitar la inferencia de IA a escala, garantizando que las aplicaciones de IA se puedan implementar en la nube, el centro de datos y en la estación de trabajo.

La generación aumentada por recuperación es una técnica que permite a los LLM crear respuestas a partir de la información más reciente, conectándolos a la base de conocimientos de la empresa. NeMo trabaja con varias herramientas de terceros y de la comunidad, incluidas Milvus, Llama Index y LangChain, para extraer fragmentos relevantes de información de la base de datos vectoriales y alimentarlos al LLM para generar respuestas en lenguaje natural. Explore la página de Chatbot de IA usando el flujo de trabajo de RAG para comenzar a crear chatbots de IA de calidad de producción que pueden responder con precisión a preguntas sobre los datos de su empresa.

Los Blueprints de NVIDIA son flujos de trabajo de referencia integrales desarrollados con las bibliotecas, los kits de desarrollo y los microservicios de NVIDIA AI y de Omniverse. Cada blueprint incluye código de referencia, herramientas de implementación, guías de personalización y una arquitectura de referencia, lo cual permite acelerar la implementación de soluciones de IA, como los agentes de IA y los gemelos digitales, desde el prototipo hasta la producción.

NVIDIA AI Enterprise es una plataforma de software de extremo a extremo nativa de la nube que acelera los procesos de ciencia de datos y agiliza el desarrollo y la implementación de aplicaciones de IA de nivel de producción, entre las que se incluyen la IA generativa, la visión por ordenador, la IA de voz y muchas más. Incluye las mejores herramientas de desarrollo, marcos, modelos preentrenados, microservicios para profesionales de IA y capacidades de gestión fiables para profesionales de TI destinadas a garantizar el rendimiento, la estabilidad de API y la seguridad.