Codifica la inteligencia mediante modelos de lenguaje de gran tamaño

Los modelos de lenguaje de gran tamaño (LLM) representan un gran avance en IA gracias a su capacidad para transformar dominios a través del conocimiento aprendido. El tamaño de los LLM lleva un tiempo multiplicándose por 10 cada año y, a medida que estos modelos crecen en complejidad y alcance, también lo hacen sus capacidades.

Sin embargo, los LLM son difíciles de desarrollar y mantener, lo que los deja fuera del alcance de la mayoría de las empresas.

Generación de texto

para la creación de argumentos y elementos de marketing.

Resumen

para noticias y correo electrónico. 

Generación de imágenes

para la creación de marcas y personajes de gaming. 

Chatbots

para la asistencia al cliente en tiempo real mediante preguntas y respuestas inteligentes. 

Programación

para la generación dinámica de comentarios y funciones.

Traducción

para idiomas y Wikipedia. 

Explora el servicio NVIDIA NeMo LLM

Explora el servicio NVIDIA NeMo LLM

Libera la potencia de los modelos de lenguaje de gran tamaño para la IA empresarial.

El servicio NeMo LLM se ejecuta en la plataforma de IA de NVIDIA y proporciona a las empresas la forma más rápida de personalizar e implementar LLM en nubes privadas y públicas, o de acceder a ellas a través del servicio API.

Prueba uno de los modelos de lenguaje más potentes del mundo.

El servicio NeMo LLM ofrece el modelo NVIDIA Megatron 530B como API en la nube. Prueba las capacidades del modelo 530B a través de Playground o las API de transferencia de estado de representación (REST).

NVIDIA NeMo

Echa un vistazo a NVIDIA NeMo Megatron.

NeMo Megatron es un marco integral para el entrenamiento y la implementación de LLM con miles de millones o billones de parámetros.

Este marco en contenedores ofrece una alta eficiencia de entrenamiento en miles de GPU, de modo que las empresas pueden crear e implementar modelos a gran escala de forma práctica. Proporciona capacidades para organizar datos de entrenamiento, entrenar modelos a gran escala con hasta billones de parámetros, personalizar mediante el aprendizaje rápido e implementar con el servidor de inferencia NVIDIA Triton™, que permite ejecutar modelos a gran escala en múltiples GPU y nodos.

NeMo Megaton se ha optimizado para ejecutarse en NVIDIA DGX™ Foundry, NVIDIA DGX SuperPOD™,  Amazon Web Services, Microsoft Azure y Oracle Cloud Infrastructure.

Impulsa la inferencia LLM con NVIDIA Triton.

Los científicos e ingenieros de datos están empezando a explorar todas las posibilidades de los modelos de lenguaje de gran tamaño. El servidor de inferencia NVIDIA Triton™ es un software de servicio de inferencia de código abierto que se puede utilizar para implementar, ejecutar y escalar estos modelos LLM. Es compatible con la inferencia multi-GPU y multi-nodo para modelos de lenguaje de gran tamaño que utilizan un backend FasterTransformer. Triton utiliza el paralelismo de tensores y canalizaciones, la interfaz de paso de mensajes (MPI) y la biblioteca de comunicación colectiva de NVIDIA (NCCL) para lograr una inferencia distribuida de alto rendimiento, y es compatible con GPT, T5 y otros LLM. La funcionalidad de inferencia LLM se encuentra en fase beta.  

NVIDIA Triton
NVIDIA BioNeMo

Amplía la investigación y la detección de fármacos con NVIDIA BioNeMo.

BioNeMo, un servicio en la nube de detección de fármacos y marco de aplicaciones con tecnología de IA basado en NVIDIA NeMo Megatron, permite entrenar e implementar modelos de IA de grandes transformadores biomoleculares a escala de supercomputación. El servicio incluye LLM preentrenados y compatibilidad nativa con los formatos de archivo más comunes para proteínas, ADN, ARN y otros compuestos químicos, además de proporcionar cargadores de datos para SMILES (estructuras moleculares) y FASTA (secuencias de aminoácidos y nucleótidos). El marco BioNeMo también estará disponible para su descarga, de modo que puedas ejecutarlo en tu propia infraestructura.

Encuentra más recursos

Descubre cómo NVIDIA Triton puede simplificar la implementación de IA a escala.

Únete a la comunidad.

Mantente al día de las últimas actualizaciones de productos, contenidos y noticias acerca del servidor de inferencia NVIDIA Triton y NVIDIA® TensorRT™.

Explora las últimas sesiones bajo demanda de NVIDIA Triton.

VER SESIONES DE LA GTC BAJO DEMANDA

Echa un vistazo a las últimas sesiones bajo demanda sobre LLM de las GTC de NVIDIA.

Implementa modelos de aprendizaje profundo de IA.

Lee el informe técnico sobre inferencia.

Infórmate sobre la evolución del panorama del uso de la inferencia, las consideraciones para una inferencia óptima y la plataforma de IA de NVIDIA.

Mantente al día sobre las noticias de LLM

Prueba hoy mismo el servicio NVIDIA NeMo LLM.