IA affidabile

Riteniamo che l'IA debbarispettare le normative sulla privacy e sulla protezione dei dati, operare in modo sicuro, agire in modo trasparente e responsabile ed evitare pregiudizi e discriminazioni. Ci impegniamo a garantire un'IA sicura e affidabile, in linea con gli impegni volontari della Casa Bianca e altre iniziative globali sulla sicurezza dell'IA.

I nostri principi guida per un'IA affidabile

Privacy

L'IA deve essere conforme alle leggi e alle normative sulla privacy e soddisfare le norme sociali in materia di privacy dei dati personali e delle informazioni.

Sicurezza

Verificare che i sistemi IA funzionino come previsto ed evitino danni e minacce.

Trasparenza

Rendere la tecnologia IA comprensibile alle persone. Spiegare, in linguaggio non tecnico, come un sistema IA produce un risultato.

Nessuna discriminazione

Ridurre al minimo le distorsioni nei nostri sistemi IA e offrire a tutti i gruppi la stessa opportunità di beneficiare dell'IA.

Metodi e tecnologie

I principi di un'IA affidabile sono fondamentali per i processo di sviluppo ed essenziali per l'eccellenza tecnica che consente a partner, clienti e sviluppatori di lavorare al meglio. Stiamo costruendo data factory per servizi di IA generativa, strumenti per selezionare e convalidare set di dati imparziali per la computer vision, librerie per la scalabilità dei dati di elaborazione del linguaggio naturale per modelli linguistici di grandi dimensioni, funzionalità di sicurezza all'avanguardia come Confidential Computinge innovazioni come tecniche open-source di allineamento dei modelli con feedback umano.

Le nostre soluzioni IA affidabili

Generatore di schede modello

Le schede modello IA rappresentano lo standard per aumentare la fiducia nel ciclo di vita di sviluppo, dimostrando la conformità e incoraggiando la trasparenza. Riduci al minimo lo sforzo manuale e aumenta l'efficienza automatizzando la creazione delle schede modello.

NVIDIA Halos per la sicurezza IA

Lo stack di sicurezza completo NVIDIA Halos unifica architettura, modelli IA, chip, software, strumenti e servizi per garantire lo sviluppo sicuro dell'IA fisica, ad esempio, per la progettazione di veicoli autonomi e la robotica.

NeMo Guardrails

NVIDIA NeMo GuardRails contribuisce a garantire che le applicazioni intelligenti basate su LLM siano accurate, appropriate, specifiche e sicure.

Partnership per tecnologie IA affidabili

Te Hiku Media

Te Hiku Media, membro di NVIDIA Inception, ha creato un sistema di riconoscimento vocale bilingue altamente accurato per la lingua maori e l'inglese neozelandese, sviluppato e gestito dalla stessa comunità linguistica.

SynthID di Google DeepMind

NVIDIA è il primo utente esterno a incorporare le filigrane digitali direttamente in contenuti audio, immagini, testo e video generati dall'IA per proteggersi dalla disinformazione e da attribuzioni errate senza compromettere la qualità video.

SIGNS

NVIDIA sta collaborando con l'American Society for Deaf Children, Hello Monday/DEPT e il Rochester Institute for Technology nell'ambito dell'insegnamento e della creazione di un set di dati disponibile pubblicamente per le tecnologie accessibili tramite la piattaforma Signs.

IA affidabile nelle notizie

Vedi tutte le storie di IA affidabile

Un impegno per la ricerca

La nostra ricerca sull'IA si concentra sullo sviluppo di algoritmi e sistemi in grado di aumentare le capacità umane, risolvere problemi complessi e migliorare l'efficienza in tutti i settori. Lavoriamo per rispettare i nostri principi guida di privacy, trasparenza, non discriminazione, sicurezza e protezione in tutte le pratiche e le metodologie di ricerca.

Pubblicazioni e documenti in primo piano:

Scopri di più sulla conferenza GTC dedicata all'IA

Ascolta gli esperti e i leader governativi che gettano le basi per la regolamentazione e l'affidabilità dell'IA. Scopri le sessioni Trustworthy AI di NVIDIA GTC appositamente pensate per consentire alle aziende di identificare e affrontare i potenziali ostacoli allo sviluppo delle loro iniziative.