Benchmark MLPerf

La piattaforma NVIDIA AI offre prestazioni e versatilità di prim'ordine nei benchmark di formazione, inferenza e HPC di MLPerf per i carichi di lavoro IA reali più esigenti.

Che cosa è MLPerf?

I benchmark MLPerf™, sviluppati da MLCommons, un consorzio di leader dell’IA provenienti dal mondo accademico, dai laboratori di ricerca e dall’industria, sono progettati per fornire valutazioni imparziali della formazione e delle prestazioni di inferenza per hardware, software e servizi. Il tutto condotto in condizioni prestabilite. Al fine di essere sempre all’avanguardia nelle tendenze del settore, MLPerf continua a evolversi, eseguendo nuovi test a intervalli regolari e aggiungendo nuovi carichi di lavoro che rappresentano le ultime innovazioni dell’IA.

Dentro i benchmark MLPerf

MLPerf Inference v4.1 misura le prestazioni di inferenza su nove diversi benchmark, tra cui diversi modelli linguistici di grandi dimensioni (LLM), text-to-image, elaborazione del linguaggio naturale, sistemi recommender, computer vision e segmentazione di immagini mediche.

MLPerf Training v4.1 misura il tempo necessario per la formazione sulla base di sette diversi benchmark, tra cui pre-formazione di LLM, ottimizzazione di LLM, text-to-image, rete neurale a grafo (GNN), computer vision, raccomandazioni ed elaborazione del linguaggio naturale.

MLPerf HPC v3.0 misura le prestazioni della formazione in quattro diversi casi d'uso di calcolo scientifico, tra cui l'identificazione di fiumi atmosferici nella scienza del clima, la previsione dei parametri nella cosmologia, la modellazione molecolare quantistica e la previsione delle strutture proteiche. 

Modello linguistico di grandi dimensioni (LLM)

Modelli linguistici di grandi dimensioni

Algoritmi di deep learning formati su set di dati su larga scala in grado di riconoscere, riassumere, tradurre, prevedere e generare contenuti per una vasta gamma di casi d'uso.
Dettagli.

Text-to-Image

Text-to-Image

Genera immagini da prompt di testo.
Dettagli.

Recommender

Recommender

Offre risultati personalizzati nei servizi rivolti all'utente, come social media o siti di e-commerce apprendendo le interazioni tra utenti e servizi, come prodotti o annunci.
Dettagli.

Rilevamento di oggetti (leggero)

Rilevamento di oggetti (leggero)

Rileva istanze di oggetti del mondo reale come visi, biciclette ed edifici all'interno di immagini o video delineando un riquadro attorno a ciascuno.
Dettagli.

Categorie di invio di contenuti MLPerf

Rete neurale a grafo

Utilizza reti neurali progettate per lavorare con dati strutturati come grafici.
Dettagli.

Classificazione di immagini

Classificazione di immagini

Assegna un'etichetta proveniente da una serie fissa di categorie a un'immagine acquisita, ad es. nel caso di problemi di computer vision.
Dettagli.

Natural Language Processing (NLP)

Natural Language Processing (NLP)

Comprende il testo usando la relazione tra parole diverse in un blocco di testo. Consente di rispondere a domande, parafrasi di frasi e molti altri casi d'uso legati al linguaggio.
Dettagli.

Segmentazione delle immagini biomediche

Segmentazione delle immagini biomediche

Esegue la segmentazione volumetrica di immagini 3D dense per casi d'uso in campo medico.
Dettagli.

Categoria di identificazione dei fiumi climatica e atmosferica

Identificazione dei fiumi climatica e atmosferica

Identifica gli uragani e i fiumi atmosferici nei dati di simulazione climatica.
Dettagli.

Categoria di previsione del parametro di cosmologia

Previsione dei parametri di cosmologia

Risolve un problema di regressione di immagini 3D su dati cosmologici.
Dettagli.

Categoria di modellazione molecolare quantistica

Modellazione molecolare quantistica

Prevede energie o configurazioni molecolari.
Dettagli.

Previsione della struttura proteica

Previsione della struttura proteica

Prevede la struttura tridimensionale della proteina basata sulla connettività unidimensionale degli amminoacidi.
Dettagli.

I risultati NVIDIA nel benchmark MLPerf

La piattaforma NVIDIA HGX™ B200, basata sulle GPU NVIDIA Blackwell, NVLink™ di quinta generazione e l'ultimo switch NVLink, ha consentito un ulteriore passo avanti nella formazione di LLM con MLPerf Training v4.1. Lavorando senza sosta alla progettazione full-stack a livello di data center, NVIDIA continua a superare i confini delle prestazioni della formazione dell'IA generativa, accelerando la creazione e la personalizzazione di modelli IA sempre più capaci.

NVIDIA Blackwell potenzia la formazione di LLM

NVIDIA Blackwell potenzia la formazione di LLM

Risultati MLPerf™ Training v4.1 tratti da http://www.mlcommons.org il 13 novembre 2024 dalle seguenti voci: 4.1-0060 (HGX H100, 2024, 512 GPU) nella categoria disponibile, 4.1-0082 (HGX B200, 2024, 64 GPU) nella categoria anteprima. Risultati di MLPerf™ Training v3.0, utilizzati per HGX H100 (2023, 512 GPU), tratti dalla voce 3.0-2069. Risultato di HGX A100, utilizzando 512 GPU, non verificato dalla MLCommons Association. Le prestazioni normalizzate per GPU non costituiscono una metrica primaria di MLPerf™ Training.  Il nome e il logo MLPerf™ sono marchi registrati di MLCommons Association negli Stati Uniti e in altri paesi. Tutti i diritti riservati. L'uso non autorizzato è severamente vietato. Per ulteriori informazioni, consulta http://www.mlcommons.org.

NVIDIA continua a offrire le massime prestazioni su larga scala

La piattaforma NVIDIA, basata sulle GPU NVIDIA Hopper™, NVLink di quarta generazione con NVSwitch™ di terza generazione e Quantum-2 InfiniBand, continua a offrire prestazioni e versatilità ineguagliabili in MLPerf Training v4.1. NVIDIA ha offerto il massimo delle prestazioni su larga scala in tutti e sette i benchmark.

Prestazioni di scala massima

Benchmark Time to Train Number of GPUs
LLM (GPT-3 175B) 3.4 minutes 11,616
LLM Fine-Tuning (Llama 2 70B-LoRA) 1.2 minutes 1,024
Text-to-Image (Stable Diffusion v2) 1.4 minutes 1,024
Graph Neural Network (R-GAT) 0.9 minutes 512
Recommender (DLRM-DCNv2) 1.0 minutes 128
Natural Language Processing (BERT) 0.1 minutes 3,472
Object Detection (RetinaNet) 0.8 minutes 2,528

Risultati MLPerf™ Training v4.1 tratti da https://mlcommons.org il 13 novembre 2024 dalle seguenti voci: 4.1-0012, 4.1-0054, 4.1-0053, 4.1-0059, 4.1-0055, 4.10058,  4.1-0056. Il nome e il logo MLPerf™ sono marchi registrati di MLCommons Association negli Stati Uniti e in altri paesi. Tutti i diritti riservati. L'uso non autorizzato è severamente vietato. Per ulteriori informazioni, consulta https://mlcommons.org.

La tecnologia dietro ai risultati

La complessità dell’IA richiede una stretta integrazione di tutti gli aspetti della piattaforma. Come dimostrato dai benchmark MLPerf, la piattaforma NVIDIA AI offre prestazioni di leadership con la GPU più avanzata al mondo, tecnologie di interconnessione potenti e scalabili e software all'avanguardia, una soluzione end-to-end che può essere installata nel data center, nel cloud o sui sistemi periferici con risultati incredibili.

Modelli pre-addestrati e software ottimizzato di NVIDIA NGC

Software ottimizzato che accelera i flussi di lavoro IA

Fattore essenziale dei risultati di formazione e inferenza MLPerf e della piattaforma NVIDIA, il catalogo NGC™ è un hub per IA, HPC e software di analisi dati ottimizzati da GPU che semplifica e accelera i flussi di lavoro end-to-end. Con oltre 150 container di livello aziendale, tra cui carichi di lavoro per l’IA generativa, l’IA conversazionale e i sistemi recommender, centinaia di modelli di AI e SDK specifici per il settore che possono essere distribuiti on premise, nel cloud o sui sistemi periferici, NGC consente a data scientist, ricercatori e sviluppatori di creare soluzioni all'avanguardia, raccogliere informazioni e offrire valore aziendale più velocemente che mai.

Infrastruttura IA leader

Per ottenere risultati leader a livello mondiale in materia di training e inferenza è necessaria un'infrastruttura appositamente costruita per le sfide dell'IA più complesse del mondo. La piattaforma NVIDIA AI ha offerto prestazioni leader grazie alla piattaforma NVIDIA Blackwell, alla piattaforma Hopper, NVLink™, NVSwitch™ e Quantum InfiniBand. Questi sono al centro della piattaforma per data center NVIDIA, il motore dietro le nostre prestazioni di benchmark.

Inoltre, i sistemi NVIDIA DGX™ offrono la scalabilità, la distribuzione rapida e l'incredibile potenza di elaborazione che permettono alle aziende di creare un'infrastruttura IA leader. 

NVIDIA Jetson Orin

Sbloccare l'IA generativa al limite grazie a prestazioni trasformative

NVIDIA Jetson Orin offre un'ineguagliabile capacità di calcolo IA, una grande memoria unificata e stack software completi, offrendo un'efficienza energetica superiore per alimentare le ultime applicazioni di IA generativa. È in grado di effettuare inferenze rapide per qualsiasi modello di IA generativa alimentato dall'architettura Transformer, fornendo prestazioni edge superiori su MLPerf.

Scopri di più sulle prestazioni dei nostri prodotti per l'inferenza e la formazione in data center.

Modelli linguistici di grandi dimensioni

Modelli linguistici di grandi dimensioni

MLPerf Training utilizza il modello del linguaggio generativo GPT-3 con 175 miliardi di parametri e una lunghezza di sequenza di 2.048 sul set di dati C4 per il carico di lavoro pre-allenamento LLM. Per il test di calibrazione LLM, il modello Llama 2 70B con il set di dati GovReport con lunghezze di sequenza di 8.192.

MLPerf Inference utilizza il modello Llama 2 70B con il set di dati OpenORCA; il modello Mixtral 8x7B con i set di dati OpenORCA, GSM8K e MBXP; e il modello GPT-J con il set di dati CNN-DailyMail.

Text-to-Image

Text-to-Image

MLPerf Training utilizza il modello text-to-image Stable Diffusion v2 formato sul set di dati filtrato da LAION-400M.

MLPerf Inference utilizza il modello text-to-image Stable Diffusion XL (SDXL) con un sottoset di 5.000 prompt dal set di dati coco-val-2014. 

Recommender

Recommender

MLPerf Training and Inference utilizza il Deep Learning Recommendation Model v2 (DLRMv2) che impiega DCNv2 cross-layer e un dataset multi-hot sintetizzato dal dataset Criteo.

Rilevamento di oggetti (leggero)

Rilevamento di oggetti (leggero)

MLPerf Training utilizza Single-Shot Detector (SSD) con backbone ResNeXt50 su un sottoinsieme del Dataset Google OpenImages.

Rete neurale a grafo

Rete neurale a grafo

MLPerf Training utilizza R-GAT con l'Illinois Graph Benchmark (IGB), set di dati eterogenei.

Classificazione di immagini

Classificazione di immagini

MLPerf Inference utilizza ResNet v1.5 con il set di dati ImageNet.

Natural Language Processing (NLP)

Natural Language Processing (NLP)

MLPerf Training utilizza BERT (Bidirectional Encoder Representations from Transformers) sul set di dati di Wikipedia in data 01/01/2020.

MLPerf Inference ha usato BERT con set di dati SQuAD v.1.1.

Segmentazione delle immagini biomediche

Segmentazione delle immagini biomediche

MLPerf Inference usa 3D U-Net con il set di dati KiTS19.

Identificazione dei fiumi climatica e atmosferica

Identificazione dei fiumi climatica e atmosferica

Utilizza il modello DeepCAM con CAM5 + set di dati di simulazione TECA.

Previsione dei parametri di cosmologia

Previsione dei parametri di cosmologia

Utilizza il modello CosmoFlow con il set di dati di simulazione del corpo N CosmoFlow.

Modellazione molecolare quantistica

Modellazione molecolare quantistica

Utilizza il modello DimeNet++ con il set di dati Open Catalyst 2020 (OC20).

Previsione della struttura proteica

Previsione della struttura proteica

Utilizza il modello OpenFold basato sul dataset OpenProteinSet.

Select Location
Middle East