Trouvez les outils appropriés pour mettre en œuvre de grands modèles de langage, du développement à la production
Pour les utilisateurs individuels cherchant à accéder au code open-source de NeMo à des fins de développement.
Pour les utilisateurs cherchant à accéder à des conteneurs NeMo gratuits.
Pour les entreprises cherchant à acheter NeMo pour le développement et le déploiement de leurs produits.
NVIDIA NeMo™ est un framework de bout en bout natif dans le Cloud qui vous permet de concevoir, de personnaliser et de déployer des modèles d’IA générative n’importe où. Cet outil inclut des frameworks d’entraînement et d’inférence, le kit d’outils de guardrailing, des outils de conservation de données et des modèles pré-entraînés qui offrent aux entreprises une méthode simple, rentable et rapide pour adopter l’IA générative. Les développeurs peuvent choisir d’accéder à NeMo via du code open-source sur GitHub, en tant que conteneur empaqueté dans le catalogue NVIDIA NGC, ou via un abonnement à NVIDIA AI Enterprise.
NeMo est disponible avec NVIDIA AI Enterprise. Vous trouverez les détails de tarification et de licence ici.
Les utilisateurs peuvent obtenir l'assistance commerciale standard de NVIDIA via un abonnement à NVIDIA AI Enterprise incluant NeMo. L'assistance commerciale standard inclut des accords de niveau de service, un accès rapide aux experts de NVIDIA et à un support à long terme pour les déploiements sur site ou dans le Cloud.
NVIDIA AI Enterprise inclut une assistance commerciale standard. Pour une assistance et des services additionnels, comme une assistance commerciale spécialisée, un gestionnaire de compte technique dédié, des offres de formation et des services professionnels, consultez le Guide de l'assistance et des services pour les entreprises de NVIDIA.
Disponible gratuitement via le catalogue NGC, NeMo permet aux développeurs de créer et de personnaliser rapidement des grands modèles de langage (LLM). C’est la méthode la plus simple et rapide pour les chercheurs et les développeurs en IA qui souhaitent commencer à utiliser les conteneurs d’entraînement et d’inférence de NeMo. Les développeurs peuvent également accéder au code open-source de NeMo via GitHub.
Pour les développeurs qui développent des LLM à usage commercial, NVIDIA AI Enterprise fournit une plateforme logicielle sécurisée de bout en bout pour la production qui inclut le framework NeMo, des applications de référence pour l’IA générative et des services d’assistance aux entreprises pour rationaliser son adoption. La solution inclut :
Disponible avec le framework NeMo, NeMo Data Curator est un outil évolutif de conservation de données qui permet aux développeurs de trier des trillions de jeux de données multilingues afin de pré-entraîner des LLM. Il se compose d'un ensemble de modules Python qui utilisent MPI (Message-Passing Interface), Dask et Redis Cluster pour faire évoluer des tâches de conservation de données telles que le téléchargement de données, l'extraction de texte, le nettoyage, le filtrage et la déduplication de résultats exacts ou partiels pour des milliers de cœurs de calcul.
NeMo Guardrails est un kit d’outils open-source qui facilite le développement de systèmes conversationnels LLM sécurisés et fiables. Cette solution permet aux développeurs d’aligner en toute sécurité leurs applications basées sur les LLM, en fonction de l’expertise de l’entreprise et des valeurs de sa marque. Guardrails n’est pas spécifique au framework NeMo et a été conçu pour fonctionner avec tous les LLM, y compris ChatGPT d'OpenAI.
NeMo Guardrails permet aux développeurs de définir trois types de limites :
Suivez toute l’actualité des solutions de NVIDIA pour l'IA générative.
Recevez les mises à jour pour les développeurs, les annonces et bien plus encore de la part de NVIDIA directement dans votre boîte de réception.
Envoyez-moi les dernières informations et annonces liées aux solutions commerciales NVIDIA d’entreprise et aux technologies et outils NVIDIA pour les développeurs.
Déclaration de confidentialité de NVIDIA