Pruebas de referencia de MLPerf

La plataforma de IA de NVIDIA logra un rendimiento y versatilidad de clase mundial en entrenamiento MLPerf, inferencia y pruebas de referencia de HPC para las cargas de trabajo de IA del mundo real más exigentes.

¿Qué es MLPerf?

Las pruebas de referencia de MLPerf™ —desarrolladas por MLCommons, un consorcio de líderes de IA del mundo académico, laboratorios de investigación y la industria— están diseñadas para proporcionar evaluaciones imparciales de entrenamiento y rendimiento de inferencia para hardware, software y servicios. Todas se realizan en las condiciones prescritas. Para mantenerse a la vanguardia de las tendencias del sector, MLPerf está en constante evolución, realizando nuevas pruebas a intervalos regulares y agregando nuevas cargas de trabajo que representan la IA más avanzada.

Dentro de las pruebas de referencia de MLPerf

MLPerf Inference v4.1 mide el rendimiento de la inferencia en nueve puntos de referencia diferentes, incluidos varios modelos lingüísticos de gran tamaño (LLM), texto a imagen, procesamiento de lenguaje natural, recomendaciones, visión por ordenador y segmentación de imágenes médicas.

MLPerf Training v4.1 mide el tiempo para entrenar en siete puntos de referencia diferentes, incluida la formación previa de LLM, la puesta a punto de LLM, la conversión de texto a imagen, la red neuronal de gráficos (GNN), la visión por ordenador, la recomendación y el procesamiento del lenguaje natural.

MLPerf HPC v3.0 mide el rendimiento de entrenamiento en cuatro casos de uso de computación científica diferentes, incluida la identificación de ríos atmosféricos, la predicción de parámetros cosmológicos, el modelado molecular cuántico y la predicción de estructuras de proteínas. 

Modelo lingüístico de gran tamaño (LLM)

Modelos lingüísticos de gran tamaño

Algoritmos de Deep learning entrenados en conjuntos de datos a gran escala que pueden reconocer, resumir, traducir, predecir y generar contenido para una amplia gama de casos de uso.
Detalles.

Texto a imagen

Texto a imagen

Genera imágenes a partir de indicaciones de texto.
Detalles.

Recomendación

Recomendación

Ofrece resultados personalizados en servicios orientados al usuario, como redes sociales o sitios web de comercio electrónico, al comprender las interacciones entre los usuarios y los artículos de servicio, como productos o anuncios.
Detalles.

Detección de objetos (ligera)

Detección de objetos (ligera)

Busca instancias de objetos del mundo real, como caras, bicicletas y edificios en imágenes o vídeos, y especifica un cuadro delimitador alrededor de cada uno.
Detalles.

Categorías de presentación de MLPerf

Red neuronal gráfica

Utiliza redes neuronales diseñadas para trabajar con datos estructurados en forma de gráficos.
Detalles.

Clasificación de imágenes

Clasificación de imágenes

Asigna una etiqueta de un conjunto fijo de categorías a una imagen de entrada; es decir, se aplica a problemas de visión por ordenador.
Detalles.

Procesamiento del lenguaje natural (PLN)

Procesamiento del lenguaje natural (PLN)

Comprende el texto utilizando la relación entre las diferentes palabras en un bloque de texto. Permite responder preguntas, parafrasear oraciones y muchos otros casos de uso relacionados con el lenguaje.
Detalles.

Segmentación de imágenes biomédicas

Segmentación de imágenes biomédicas

Realiza la segmentación volumétrica de imágenes 3D densas para casos de uso médico.
Detalles.

Categoría de identificación climática de ríos atmosféricos

Identificación climática de ríos atmosféricos

Identifica huracanes y ríos atmosféricos en datos de simulación climática.
Detalles.

Categoría de predicción de parámetros cosmológicos

Predicción de parámetros cosmológicos

Resuelve un problema de regresión de imágenes 3D en datos cosmológicos.
Detalles.

Categoría de modelado molecular cuántico

Modelado molecular cuántico

Predice energías o configuraciones moleculares.
Detalles.

Predicción de la estructura de proteínas

Predicción de la estructura de proteínas

Predice la estructura proteica tridimensional basada en la conectividad unidimensional de los aminoácidos.
Detalles.

Resultados de las pruebas de referencia de MLPerf de NVIDIA

La plataforma NVIDIA HGX™ B200, con tecnología GPU NVIDIA Blackwell, NVLink™ de quinta generación y el último NVLink Switch, ofrecieron otro salto de gigante para la formación de LLM en MLPerf Training v4.1. A través de una implacable ingeniería de pila completa a escala de centro de datos, NVIDIA no deja de superar los límites del rendimiento del entrenamiento de IA generativa, lo que acelera la creación y la personalización de modelos de IA cada vez más capaces.

NVIDIA Blackwell potencia el entrenamiento de los LLM

NVIDIA Blackwell potencia el entrenamiento de los LLM

Los resultados de MLPerf™ Training v4.1 se recuperaron de http://www.mlcommons.org el 13 de noviembre de 2024, de las siguientes entradas: 4.1-0060 (HGX H100, 2024, 512 GPU) en la categoría disponible, 4.1-0082 (HGX B200, 2024, 64 GPU) en la categoría de vista previa. Los resultados de MLPerf™ Training v3.0, utilizados para HGX H100 (2023, 512 GPU), recuperados de la entrada 3.0-2069. El resultado de HGX A100, utilizando 512 GPU, no ha sido verificado por la asociación MLCommons. El rendimiento normalizado por GPU no es una métrica principal de MLPerf™ Training.  El nombre y el logotipo de MLPerf™ son marcas comerciales de la asociación MLCommons en los Estados Unidos y otros países. Todos los derechos reservados. El uso no autorizado está estrictamente prohibido. Consulte http://www.mlcommons.org para obtener más información.

NVIDIA continúa ofreciendo el más alto rendimiento a escala

La plataforma NVIDIA, con tecnología GPU NVIDIA Hopper™, NVLink de cuarta generación con NVSwitch™ de tercera generación y Quantum-2 InfiniBand, sigue demostrando un rendimiento y versatilidad sin igual en MLPerf Training v4.1. NVIDIA ofreció el más alto rendimiento a escala en los siete índices de referencia.

Rendimiento de máxima escala

Benchmark Time to Train Number of GPUs
LLM (GPT-3 175B) 3.4 minutes 11,616
LLM Fine-Tuning (Llama 2 70B-LoRA) 1.2 minutes 1,024
Text-to-Image (Stable Diffusion v2) 1.4 minutes 1,024
Graph Neural Network (R-GAT) 0.9 minutes 512
Recommender (DLRM-DCNv2) 1.0 minutes 128
Natural Language Processing (BERT) 0.1 minutes 3,472
Object Detection (RetinaNet) 0.8 minutes 2,528

Los resultados de MLPerf™ Training v4.1 fueron recuperados de https://mlcommons.org el 13 de noviembre de 2024, de las siguientes entradas: 4.1-0012, 4.1-0054, 4.1-0053, 4.1-0059, 4.1-0055, 4.10058,  4.1-0056. El nombre y el logotipo de MLPerf™ son marcas comerciales de la asociación MLCommons en los Estados Unidos y otros países. Todos los derechos reservados. El uso no autorizado está estrictamente prohibido. Consulte https://mlcommons.org para obtener más información.

La tecnología detrás de los resultados

La complejidad de la IA exige una estrecha integración entre todos los aspectos de la plataforma. Como se ha demostrado en las pruebas de referencia de MLPerf, la plataforma de IA de NVIDIA ofrece un rendimiento de liderazgo con la GPU más avanzada del mundo, tecnologías de interconexión potentes y escalables y software de vanguardia: una solución integral que se puede implementar en el centro de datos, en la nube o en el perímetro con resultados increíbles.

Modelos preentrenados y software optimizado de NVIDIA NGC

Software optimizado que acelera los flujos de trabajo de IA

Un componente esencial de la plataforma de NVIDIA y de los resultados de entrenamiento e inferencia de MLPerf, el catálogo NGC™ es un centro para software de IA, HPC y análisis de datos optimizado para GPU que simplifica y acelera los flujos de trabajo de extremo a extremo. Con más de 150 contenedores de nivel empresarial, incluidas cargas de trabajo para IA generativa, IA conversacional, sistemas de recomendación y cientos de modelos de IA y SDK específicos del sector que se pueden implementar en las instalaciones, en la nube o en el perímetro, NGC permite a científicos de datos, investigadores y desarrolladores crear las mejores soluciones, recopilar información y ofrecer valor comercial más rápido que nunca.

Infraestructura de IA de nivel de liderazgo

Para lograr resultados de primera línea en formación e inferencia, se requiere una infraestructura diseñada específicamente para los desafíos de IA más complejos del mundo. La plataforma NVIDIA AI proporcionó un rendimiento líder sobre la plataforma NVIDIA Blackwell, la plataforma Hopper, NVLink™, NVSwitch™ y Quantum InfiniBand. Todas ellas son partes esenciales de la plataforma de centros de datos de NVIDIA, el motor detrás de nuestro rendimiento en índices de referencia.

Además, los sistemas NVIDIA DGX™ ofrecen la escalabilidad, la rápida implementación y una increíble capacidad de cálculo que permite a todas las empresas crear infraestructuras de IA de nivel de liderazgo. 

NVIDIA Jetson Orin

Liberar la IA generativa en el perímetro con un rendimiento transformador

NVIDIA Jetson Orin ofrece computación de IA sin precedentes, gran memoria unificada y pilas de software completas con una eficiencia energética superior para impulsar las aplicaciones de IA generativa más recientes. Es capaz de realizar inferencias rápidamente para cualquier modelo de IA generativa impulsado por la arquitectura del transformador, proporcionando un rendimiento perimetral superior en MLPerf.

Obtenga más información sobre el rendimiento de inferencia y de entrenamiento de nuestro centro de datos.

Modelos lingüísticos de gran tamaño

Modelos lingüísticos de gran tamaño

MLPerf Training utiliza el modelo de lenguaje generativo GPT-3 con 175 000 millones de parámetros y una longitud de secuencia de 2048 en el conjunto de datos de C4 para la carga de trabajo de preentrenamiento de LLM. Para la prueba de puesta a punto de LLM, el modelo Llama 2 70B con el conjunto de datos GovReport con longitudes de secuencia de 8192.

MLPerf Inference utiliza el modelo Llama 2 70B con el conjunto de datos OpenORCA; el modelo Mixtral 8x7B con los conjuntos de datos OpenORCA, GSM8K y MBXP; y el modelo GPT-J con el conjunto de datos CNN-DailyMail.

Texto a imagen

Texto a imagen

MLPerf Training utiliza el modelo de texto a imagen Stable Diffusion v2 entrenado en el conjunto de datos filtrado por LAION-400M.

MLPerf Inference utiliza el modelo de texto a imagen de Stable Diffusion XL (SDXL) con un subconjunto de 5000 indicaciones procedentes del conjunto de datos coco-val-2014. 

Recomendación

Recomendación

MLPerf Training and Inference utiliza el modelo de recomendación v2 (DLRMv2) de Deep Learning que emplea DCNv2 multinivel y un conjunto de datos multi-hot sintetizado a partir del conjunto de datos de Criteo.

Detección de objetos (ligera)

Detección de objetos (ligera)

MLPerf Training utiliza Single-Shot Detector (SSD) (Detector de capturas únicas) con el nodo de distribución troncal ResNeXt50 en un subconjunto del conjunto de datos de Google OpenImages.

Red neuronal gráfica

Red neuronal gráfica

MLPerf Training utiliza R-GAT con el conjunto de datos Illinois Graph Benchmark (IGB): conjunto de datos heterogéneos.

Clasificación de imágenes

Clasificación de imágenes

MLPerf Inference utiliza ResNet v1.5 con el conjunto de datos ImageNet.

Procesamiento del lenguaje natural (PLN)

Procesamiento del lenguaje natural (PLN)

MLPerf Training utiliza Bidirectional Encoder Representations from Transformers (BERT) en el conjunto de datos Wikipedia del 01/01/2020.

MLPerf Inference utiliza BERT con el conjunto de datos SQuAD v.1.1.

Segmentación de imágenes biomédicas

Segmentación de imágenes biomédicas

MLPerf Inference utiliza 3D U-Net con el conjunto de datos de KiTS19.

Identificación climática de ríos atmosféricos

Identificación climática de ríos atmosféricos

Utiliza el modelo DeepCAM con el conjunto de datos de simulación CAM5+TECA.

Predicción de parámetros cosmológicos

Predicción de parámetros cosmológicos

Utiliza el modelo CosmoFlow con el conjunto de datos de simulación CosmoFlow N-body.

Modelado molecular cuántico

Modelado molecular cuántico

Utiliza el modelo DimeNet++ con el conjunto de datos Open Catalyst 2020 (OC20).

Predicción de la estructura de proteínas

Predicción de la estructura de proteínas

Utiliza el modelo OpenFold entrenado en el conjunto de datos OpenProteinSet.

Select Location
Middle East