Arquitectura NVIDIA Blackwell

El motor detrás de las fábricas de IA para la era del razonamiento con IA, ahora en plena producción.

Romper barreras en la computación acelerada y la IA generativa

Explore los avances revolucionarios que la arquitectura NVIDIA Blackwell aporta a la IA generativa y a la computación acelerada. Diseñada a partir de generaciones de tecnologías NVIDIA, Blackwell define el próximo capítulo de la IA generativa con un desempeño, una eficiencia y una escala sin precedentes. 

Echa un vistazo al interior de los avances tecnológicos

La arquitectura NVIDIA Blackwell empaqueta 208 000 millones de transistores

Una nueva clase de superchip de IA

Las GPU de arquitectura Blackwell contienen 208 mil millones de transistores y se fabrican utilizando un proceso de TSMC de 4NP diseñado a medida. Todos los productos Blackwell cuentan con dos chips limitados por retículas conectados mediante una interconexión de chip a chip de 10 terabytes por segundo (TB/s) en una única GPU unificada.

Motor transformador de segunda generación

La segunda generación del Transformer Engine utiliza la tecnología personalizada de los núcleos Tensor de Blackwell combinada con las innovaciones de NVIDIA® TensorRT™-LLM y NeMo™ Framework para acelerar la inferencia y el entrenamiento de modelos lingüísticos de gran tamaño (LLM) y modelos de mezcla de expertos (MoE). Los núcleos Tensor de Blackwell añaden nuevas precisiones, incluidos nuevos formatos de microescalado definidos por la comunidad, lo que da una alta exactitud y facilidad de reemplazo para conseguir mayor precisión.

Los núcleos tensores Blackwell Ultra están sobrealimentados con una aceleración de capa de atención 2 veces superior y 1,5 veces más FLOPS de computación de IA en comparación con las GPU Blackwell. El Blackwell Transformer Engine utiliza técnicas de escalado de grano fino llamadas escalado microtensorial, para optimizar el desempeño y la precisión permitiendo la IA de punto flotante de 4 bits (FP4). Esto duplica el desempeño y el tamaño de los modelos de próxima generación compatibles con la memoria a la vez que mantiene una gran exactitud.

Motor de IA generativa de NVIDIA
Computación confidencial de NVIDIA

IA segura

Blackwell incluye NVIDIA Confidential Computing, que protege los datos confidenciales y los modelos de IA del acceso no autorizado con una sólida seguridad basada en hardware. Blackwell es la primera GPU con capacidad TEE-I/O del sector, y proporciona la solución de computación confidencial más eficiente con hosts compatibles con TEE-I/O y protección en línea a través de NVIDIA NVLink™. Blackwell Confidential Computing ofrece un rendimiento de transferencia casi idéntico al de los modos no cifrados. Las empresas pueden proteger ahora incluso los modelos de mayor tamaño de forma eficiente, además de proteger la propiedad intelectual (IP) de la IA y habilitar de forma segura el entrenamiento confidencial de la IA, la inferencia y el aprendizaje federado.

NVLink y NVLink Switch

El desbloqueo de todo el potencial de la computación a exaescala y de los modelos de IA con billones de parámetros depende de la necesidad de una comunicación rápida y perfecta entre cada GPU dentro de un clúster de servidores. La quinta generación de interconexión NVIDIA NVLink puede escalar hasta 576 GPU para acelerar el desempeño de modelos de IA con billones e incluso trillones de parámetros.

El chip de conmutación NVIDIA NVLink permite 130 TB/s de ancho de banda de GPU en un dominio NVLink de 72 GPU (NVL72) y ofrece una eficiencia de ancho de banda 4 veces mayor al ser compatible con el protocolo escalable de agregación y reducción jerárquica (SHARP)™ FP8 de NVIDIA. El chip de conmutación NVIDIA NVLink admite clústeres más allá de un solo servidor en la misma impresionante interconexión de 1,8 TB/s. Clústeres multiservidor con comunicaciones por GPU a escala de NVLink en equilibrio con el aumento de la computación, por lo que NVL72 puede admitir 9 veces el recuento de GPU que un solo sistema de ocho GPU.

NVLink y NVLink Switch
Motor de descompresión de NVIDIA

Motor de descompresión

El análisis de datos y los flujos de trabajo de bases de datos se han basado tradicionalmente en las CPU para la computación. Una ciencia de datos acelerada puede aumentar espectacularmente el desempeño del análisis de extremo a extremo, lo que acelera la generación de valor al tiempo que se reducen los costes. Las bases de datos, incluida Apache Spark, desempeñan funciones críticas en el manejo, el procesamiento y el análisis de grandes volúmenes de datos para el análisis de datos.

El motor de descompresión de Blackwell y la capacidad de acceder a cantidades masivas de memoria en la CPU NVIDIA Grace™ a través de un enlace de alta velocidad —900 gigabytes por segundo (GB/s) de ancho de banda bidireccional— aceleran la canalización completa de consultas de base de datos para lograr el máximo desempeño en el análisis de datos y la ciencia de datos con compatibilidad con los últimos formatos de compresión, como LZ4, Snappy y Deflate.

Motor de fiabilidad, disponibilidad y capacidad de mantenimiento (RAS)

Blackwell añade resiliencia inteligente con un motor dedicado de fiabilidad, disponibilidad y capacidad de mantenimiento (RAS) para identificar posibles fallos que pueden ocurrir desde el principio para minimizar el tiempo de inactividad.  Las capacidades de gestión predictiva con tecnología de IA de NVIDIA supervisan continuamente miles de puntos de datos en todo el hardware y el software para predecir el estado general e interceptar fuentes de tiempo de inactividad e ineficiencia. Esto genera una resiliencia inteligente que ahorra tiempo, energía y costes informáticos.

El motor RAS de NVIDIA ofrece información de diagnóstico detallada que puede identificar áreas preocupantes y planificar el mantenimiento. El motor RAS reduce el tiempo de respuesta al localizar rápidamente el origen de los problemas y minimiza el tiempo de inactividad al facilitar una remediación efectiva.

Motor NVIDIA RAS

Productos NVIDIA Blackwell

NVIDIA GB300 NVL72

NVIDIA GB300 NVL72

NVIDIA GB300 NVL72 ofrece un rendimiento de inferencia de razonamiento de IA sin precedentes, con 65 veces más computación de IA que los sistemas Hopper.

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™ es una solución de centro de datos de IA llave en mano que ofrece una infraestructura acelerada de primer nivel con un desempeño escalable para las cargas de trabajo de entrenamiento e inferencia de IA más exigentes.

NVIDIA RTX PRO en el centro de datos

NVIDIA RTX PRO en el centro de datos

Ofrezca una potente aceleración de IA y gráficos, características empresariales esenciales y la flexibilidad para manejar una amplia gama de cargas de trabajo, desde la IA de agentes y física hasta la computación visual y las estaciones de trabajo virtuales aceleradas por las GPU de centros de datos NVIDIA RTX PRO™.

Estaciones de trabajo NVIDIA RTX PRO

Estaciones de trabajo NVIDIA RTX PRO

Emplee los últimos avances en IA, trazado de rayos y tecnología de gráficos neuronales para impulsar los flujos de trabajo más innovadores en diseño, ingeniería y mucho más con las GPU NVIDIA RTX PRO.

NVIDIA DGX Station

NVIDIA DGX Station

A diferencia de cualquier ordenador de escritorio de IA de antes, este sistema cuenta con GPU NVIDIA Blackwell, el superchip de CPU Grace y una gran memoria coherente, lo que ofrece un desempeño de computación sin par.

NVIDIA DGX Spark

NVIDIA DGX Spark

Un superordenador de IA compacto y personal con el superchip NVIDIA GB10 Grace Blackwell, que ofrece capacidades de IA de alto desempeño y compatibilidad con modelos de hasta 200 000 millones de parámetros.

NVIDIA HGX B300 NVL16

NVIDIA HGX B300 NVL16

NVIDIA HGX™ B300 NVL16 se diseñó para la era del razonamiento de IA con computación mejorada y mayor memoria.

NVIDIA GB200 NVL72

NVIDIA GB200 NVL72

NVIDIA GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor con refrigeración por líquido.

Presentamos NVIDIA DGX Spark

DGX Spark lleva la potencia de NVIDIA Grace Blackwell™ a los ordenadores de sobremesa de los desarrolladores. El superchip GB10, combinado con 128 GB de memoria de sistema unificada, permite a investigadores de IA, científicos de datos y estudiantes trabajar con modelos de IA de forma local con hasta 200 000 millones de parámetros.

Aproveche modelos con billones de parámetros en tiempo real con NVIDIA GB200 NVL72

Grace Blackwell NVL72

NVIDIA GB200 NVL72 conecta 36 superchips GB200 Grace Blackwell con 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor. GB200 NVL72 es una solución refrigerada por líquido con un dominio NVLink de 72 GPU que actúa como una única GPU masiva para ofrecer una inferencia en tiempo real 30 veces más rápida para modelos lingüísticos de gran tamaño con billones de parámetros.

Resumen técnico de NVIDIA Blackwell

Más información sobre la arquitectura que impulsa la nueva era de la IA generativa y la computación acelerada.

Select Location
Middle East