Les grands modèles de langage (LLM), qui constituent une avancée majeure pour l’IA, promettent d'apporter une intelligence accrue à de nombreux domaines via des capacités de connaissances acquises. Au cours des dernières années, la taille des grands modèles de langage a été décuplée chaque année, or les capacités de ces modèles croissent proportionnellement à leur complexité et à leur taille.
Cependant, les grands modèles de langage sont difficiles à développer et à gérer, ce qui les rend inaccessibles pour la plupart des entreprises.
pour la création de contenu marketing et scénaristique.
pour les actualités et les e-mails.
pour la création de marque et les personnages de jeux vidéo.
pour des questions-réponses intelligentes et une assistance en temps réel.
pour des commentaires dynamiques et la génération de fonctions.
pour les langues et Wikipédia.
Le service NeMo LLM exécuté sur la plateforme d’IA de NVIDIA offre aux entreprises la voie la plus rapide vers la personnalisation et le déploiement de grands modèles de langage dans des Clouds privés comme publics, ou leur accès via le service d’API.
Le service NeMo LLM intègre le modèle NVIDIA Megatron 530B en tant qu’API Cloud. Testez les capacités du modèle 530B via Playground ou des API REST (Representation State Transfer).
NeMo Megatron est un framework de bout en bout pour l’entraînement et le déploiement de grands modèles de langage avec des milliards voire des trillions de paramètres.
Ce framework conteneurisé garantit une efficacité d’entraînement élevée sur des milliers de GPU et permet aux entreprises de concevoir et de déployer des modèles à grande échelle. Il fournit des capacités avancées de gestion des jeux de données, d’entraînement des modèles à grande échelle pouvant comporter des trillions de paramètres, de personnalisation via l’apprentissage rapide et de déploiement des modèles à grande échelle avec des GPU et nœuds multiples grâce au serveur d’inférence NVIDIA Triton™.
NeMo Megatron a été optimisé pour fonctionner sur NVIDIA DGX™ Foundry, NVIDIA DGX SuperPOD™, Amazon Web Services, Microsoft Azure et Oracle Cloud Infrastructure.
Les ingénieurs et les data scientists commencent à repousser les frontières du possible avec les grands modèles de langage. Le serveur d’inférence NVIDIA Triton™ est une plateforme logicielle d’inférence open-source qui peut être utilisée pour déployer, exécuter et faire évoluer de grands modèles de langage. Il prend en charge l’inférence multi-GPU et multi-nœuds pour les grands modèles de langage à l’aide d’un backend FasterTransformer. Triton utilise le parallélisme des tenseurs et des pipelines, ainsi que l’interface MPI (Message Passing Interface) et la bibliothèque NVIDIA de communications collectives (NCCL) pour l’inférence distribuée à hautes performances et la prise en charge de GPT, T5 et d’autres grands modèles de langage. La fonctionnalité d’inférence des grands modèles de langage est disponible en version beta.
BioNemo est un framework et un service Cloud de découverte de médicaments optimisé par l’IA basé sur NVIDIA NeMo Megatron pour l’entraînement et le déploiement de modèles d’IA dotés de capacités de calcul intensif pour les transformateurs biomoléculaires. Le service comprend de grands modèles de langage pré-entraînés et une prise en charge native des formats de fichiers standard pour les protéines, l’ADN, l’ARN et la chimie, afin de fournir des chargeurs de données pour SMILES concernant les structures moléculaires, et pour FASTA concernant les séquences d’acides aminés et de nucléotides. Le framework BioNeMo sera également disponible en téléchargement pour une exécution sur votre propre infrastructure.
Suivez toute l’actualité du serveur d’inférence NVIDIA Triton et des mises à jour, du contenu, des infos et bien plus de NVIDIA® TensorRT™.
Consultez les dernières sessions à la demande de NVIDIA à la GTC sur les grands modèles de langage.
Informez-vous sur l’évolution des techniques d’inférence, les conditions pour une inférence optimale et la plateforme d’IA de NVIDIA.
Testez le service NVIDIA NeMo LLM dès aujourd’hui