IA affidabile

Riteniamo che l'IA debbarispettare le normative sulla privacy e sulla protezione dei dati, operare in modo sicuro, agire in modo trasparente e responsabile ed evitare pregiudizi e discriminazioni. Ci impegniamo a garantire un'IA sicura e affidabile, in linea con gli impegni volontari della Casa Bianca e altre iniziative globali sulla sicurezza dell'IA.

I nostri principi guida per un'IA affidabile

Privacy

L'IA deve essere conforme alle leggi e alle normative sulla privacy e soddisfare le norme sociali in materia di privacy dei dati personali e delle informazioni.

Sicurezza

Verificare che i sistemi IA funzionino come previsto ed evitino danni e minacce.

Trasparenza

Rendere la tecnologia IA comprensibile alle persone. Spiegare, in linguaggio non tecnico, come un sistema IA produce un risultato.

Nessuna discriminazione

Ridurre al minimo le distorsioni nei nostri sistemi IA e offrire a tutti i gruppi la stessa opportunità di beneficiare dell'IA.

Metodi e tecnologie

I principi di un'IA affidabile sono fondamentali per i processo di sviluppo ed essenziali per l'eccellenza tecnica che consente a partner, clienti e sviluppatori di lavorare al meglio. Stiamo costruendo data factory per servizi di IA generativa, strumenti per selezionare e convalidare set di dati imparziali per la computer vision, librerie per la scalabilità dei dati di elaborazione del linguaggio naturale per modelli linguistici di grandi dimensioni, funzionalità di sicurezza all'avanguardia come Confidential Computinge innovazioni come tecniche open-source di allineamento dei modelli con feedback umano.

Le nostre soluzioni IA affidabili

Model Card++

Una Model Card IA è un documento che fornisce informazioni dettagliate sul funzionamento dei modelli di machine learning, favorendo la trasparenza e l'affidabilità.

NVIDIA Omniverse Replicator

NVIDIA riduce le distorsioni e tutela la privacy, generando set di dati sintetici eterogenei per replicare casi d'uso reali in veicoli autonomi, ispezione industriale e simulazione robotica.

NeMo Guardrails

NVIDIA NeMo GuardRails contribuisce a garantire che le applicazioni intelligenti basate su LLM siano accurate, appropriate, specifiche e sicure.

Partnership per tecnologie IA affidabili

Te Hiku Media

Te Hiku Media, membro di NVIDIA Inception, ha creato un sistema di riconoscimento vocale bilingue altamente accurato per la lingua maori e l'inglese neozelandese, sviluppato e gestito dalla stessa comunità linguistica.

Getty Images

L'IA generativa di Getty Images viene addestrata con NVIDIA Picasso su dati responsabili, puliti e con licenza completa, il che offre innumerevoli opportunità per le imprese creative.

Adobe Firefly

Con GPU NVIDIA, Adobe Firefly è la gamma di modelli creativi IA di Adobe, progettata per generare contenuti sicuri per l'uso commerciale migliorando significativamente i flussi di lavoro creativi.

IA affidabile nelle notizie

Vedi tutte le storie di IA affidabile

Un impegno per la ricerca

La nostra ricerca sull'IA si concentra sullo sviluppo di algoritmi e sistemi in grado di aumentare le capacità umane, risolvere problemi complessi e migliorare l'efficienza in tutti i settori. Lavoriamo per rispettare i nostri principi guida di privacy, trasparenza, non discriminazione, sicurezza e protezione in tutte le pratiche e le metodologie di ricerca.

Pubblicazioni e documenti in primo piano:

Scopri di più sulla conferenza GTC dedicata all'IA

Ascolta gli esperti e i leader governativi che gettano le basi per la regolamentazione e l'affidabilità dell'IA. Scopri le sessioni Trustworthy AI di NVIDIA GTC appositamente pensate per consentire alle aziende di identificare e affrontare i potenziali ostacoli allo sviluppo delle loro iniziative.