Usa gli strumenti giusti per portare modelli linguistici di grandi dimensioni (LLM) dallo sviluppo alla produzione.
Scopri la piattaforma completa di livello enterprise per l'IA generativa.
Scopri i modelli di base ottimizzati da NVIDIA.
Crea prototipi con NeMo e API in hosting da NVIDIA.
Esegui in produzione con NVIDIA AI Enterprise.
Inizia a creare prototipi con i principali modelli di IA generativa e open source di NVIDIA, calibrati per alte prestazioni ed efficienza. Gli LLM possono quindi essere personalizzati con NeMo e distribuiti utilizzando NVIDIA NIM dal catalogo NVIDIA API.
Inizia lo sviluppo di modelli di IA generativa con elaborazione automatica dei dati, tecniche di training dei modelli e opzioni di distribuzione flessibili.
Collega i dati aziendali ai modelli di IA generativa e recupera le informazioni con la latenza più bassa, la massima produttività e la massima privacy dei dati.
Organizza la gestione dei dialoghi per gli LLM, garantendo precisione, adeguatezza e sicurezza nelle applicazioni intelligenti.
Usa questo strumento di gestione dei dati accelerato da GPU per preparare set di dati di alta qualità su larga scala per il pre-training dei modelli di IA generativa.
Semplifica la calibrazione e l'allineamento degli LLM per casi d'uso specifici del dominio con questo microservizio scalabile ad alte prestazioni.
Valuta modelli LLM e RAG personalizzati in modo efficiente e affidabile in diversi benchmark accademici e personalizzati su qualsiasi cloud o data center.
NVIDIA AI Enterprise è la piattaforma software completa che mette l'IA generativa a portata di mano di ogni azienda, fornendo il runtime più rapido ed efficiente per i modelli IA di base. Include NeMo e NVIDIA NIM per semplificare l'adozione con sicurezza, stabilità, gestibilità e supporto.
Richiedi una valutazione gratuita di 90 giorni per accedere alle soluzioni di IA generativa e al supporto aziendale oggi stesso.
Trova una raccolta di documenti, guide, manuali, istruzioni e altre risorse informative nel centro documentazione di NeMo.
Scopri NVIDIA On-Demand, che include contenuti gratuiti su NeMo dalla GTC e altre conferenze tecnologiche in tutto il mondo.
Scopri come NeMo ti permette di creare, personalizzare e distribuire modelli linguistici di grandi dimensioni.
Scopri come configurare progetti completi con la formazione pratica e ottenere la certificazione sulle più recenti tecnologie di IA generativa.
NVIDIA NeMo è un framework completo e cloud-native per creare, personalizzare e distribuire modelli di IA generativa ovunque. Include framework di training e inferenza, guardrail toolkit, strumenti di gestione dei dati e modelli pre-addestrati, per offrire alle aziende un modo semplice, economico e veloce per implementare l'IA generativa. Gli sviluppatori possono scegliere di accedere a NeMo tramite codice open source su GitHub, come container in pacchetto dal catalogo NVIDIA NGC™o tramite un abbonamento NVIDIA AI Enterprise.
NeMo è disponibile con NVIDIA AI Enterprise. I dettagli dei prezzi e delle licenze sono disponibili qui.
I clienti possono ottenere il supporto NVIDIA Business-Standard tramite un abbonamento a NVIDIA AI Enterprise che include NeMo. Il supporto NVIDIA Business-Standard offre contratti sui livelli di servizio, accesso agli esperti NVIDIA e supporto a lungo termine nelle distribuzioni locali e su cloud.
NVIDIA AI Enterprise include il supporto NVIDIA Business-Standard. Sono inoltre disponibili ulteriori servizi e supporto aziendali, tra cui supporto NVIDIA Business-Critical, account manager tecnico dedicato, formazione e servizi professionali. Consulta la guida ai servizi e al supporto di NVIDIA Enterprise.
Disponibile nel framework NeMo, NeMo Curator è uno strumento scalabile di gestione dei dati che consente agli sviluppatori di ordinare set di dati multilingue da miliardi di token per il pre-training degli LLM. Consiste in una serie di moduli Python espressi come API che utilizzano Dask, CuDF, cuGraph e Pytorch per scalare le attività di gestione dei dati come download, estrazione di testo, pulizia, filtraggio, deduplica esatta/fuzzy e classificazione del testo a migliaia di core di calcolo.
NeMo Guardrails, un toolkit open source, organizza la gestione dei dialoghi, garantendo precisione, adeguatezza e sicurezza nelle applicazioni intelligenti con modelli linguistici di grandi dimensioni. Protegge le aziende controllando i sistemi LLM.
NeMo GuardRails permette agli sviluppatori di impostare tre tipi di limiti:
Con NeMo Retriever, una raccolta di microservizi di IA generativa, le aziende possono collegare facilmente modelli personalizzati a diversi dati aziendali per fornire risposte altamente accurate. NeMo Retriever offre recupero di informazioni di livello mondiale con la latenza minima, il throughput più elevato e la massima privacy dei dati, consentendo alle imprese di utilizzare meglio i dati e generare informazioni aziendali in tempo reale. NeMo Retriever migliora le applicazioni di IA generativa con funzionalità di generazione aumentata di recupero (RAG) di livello aziendale, che possono essere connesse ai dati aziendali ovunque risiedano.
NVIDIA NIM, parte di NVIDIA AI Enterprise, è una runtime facile da usare progettata per accelerare la distribuzione dell'IA generativa nelle aziende. Questo microservizio versatile supporta una vasta gamma di modelli IA, da modelli di community open source ai modelli NVIDIA AI Foundation, nonché i modelli IA personalizzati. Basato sulle solide fondamenta dei motori di inferenza, il sistema è progettato per facilitare l'inferenza su IA su larga scala, garantendo la distribuzione delle applicazioni IA nel cloud, nel data center e sulle workstation.
NeMo Evaluator è un microservizio automatizzato progettato per la valutazione rapida e affidabile di LLM e RAG personalizzati. Copre diversi benchmark con metriche predefinite, tra cui valutazioni umane e tecniche di LLM-as-a-judge. Più processi di valutazione possono essere distribuiti simultaneamente su Kubernetes su piattaforme cloud preferite o data center tramite chiamate API, consentendo risultati aggregati ed efficienti.
NeMo Customizer è un microservizio scalabile ad alte prestazioni che semplifica la calibrazione e l'allineamento degli LLM per casi d'uso specifici del dominio.
La generazione aumentata di recupero è una tecnica utilizzata per modelli linguistici di grandi dimensioni che permette di generare risposte a partire dalle informazioni più recenti, collegando gli LLM alla knowledge base aziendale. NeMo funziona con vari strumenti di terze parti e della community, tra cui Milvus, Llama Index e Langchain, per estrarre frammenti di informazioni pertinenti dal database vettoriale e inviarli al modello LLM per generare risposte nel linguaggio naturale.
NVIDIA offre flussi di lavoro IA di esempio in pacchetti di riferimento cloud-native che illustrano come i framework IA di NVIDIA possono essere utilizzati per creare soluzioni IA. Con modelli pre-addestrati, pipeline di training e inferenza, Jupyter Notebooks e grafici Helm, i flussi di lavoro IA accelerano il percorso verso la fornitura di soluzioni.
Crea rapidamente le tue soluzioni di IA generativa con questi flussi di lavoro completi:
NVIDIA LaunchPad è un ambiente di prova universale, che offre test approfonditi dei più recenti hardware e software NVIDIA aziendali. Questa piattaforma dinamica accelera le prove a breve termine, facilita i proof of concept (POC) a lungo termine e alimenta lo sviluppo accelerato di servizi gestiti e soluzioni autonome.
Gli utenti possono iniziare il loro percorso con l'IA con un ambiente di sviluppo gestito e personalizzato in base alle loro esigenze. In alternativa, possono esplorare un vasto catalogo di laboratori pratici progettati per offrire esperienze immersive in una vasta gamma di scenari di utilizzo, dall'IA alla scienza dei dati, fino alla progettazione 3D e all'ottimizzazione dell'infrastruttura. Le aziende possono accedere facilmente agli stack hardware e software accelerati più recenti, distribuiti su un'infrastruttura in hosting privato.
NVIDIA AI Enterprise è una piattaforma cloud-native completa che accelera i progetti di scienza dei dati e semplifica lo sviluppo e la distribuzione di applicazioni di IA generativa per ambienti di produzione, tra cui IA generativa, computer vision, IA vocale e non solo. Include strumenti e framework di sviluppo all'avanguardia, modelli pre-addestrati e microservizi per professionisti di IA, oltre a capacità affidabili di gestione e orchestrazione per professionisti IT per garantire le prestazioni, l'alta disponibilità e la sicurezza.
Il catalogo NVIDIA API fornisce modelli di IA generativa pronti per la produzione e runtime di inferenza continuamente ottimizzate, in pacchetto, sotto forma di microservizi (NVIDIA NIM) che possono essere facilmente distribuiti con strumenti standardizzati su qualsiasi sistema accelerato da GPU.
Resta aggiornato sulle novità dell'IA generativa da NVIDIA.
Ricevi aggiornamenti, annunci e altro da NVIDIA direttamente nella tua casella di posta.
Voglio ricevere le ultime notizie, gli annunci e altre comunicazioni da NVIDIA sulle soluzioni aziendali Enterprise e su tecnologia e strumenti per sviluppatori.
Informativa sulla privacy NVIDIA