La base de su centro de excelencia de IA.
NVIDIA DGX™ B200 es una plataforma de IA unificada de canalizaciones desde el desarrollo hasta la implementación para empresas de cualquier tamaño en cualquier etapa de su transición a la IA. La plataforma DGX B200, equipada con ocho GPU NVIDIA Blackwell interconectadas con la quinta generación de NVIDIA® NVLink®, proporciona un rendimiento de vanguardia que multiplica por 3 el rendimiento de entrenamiento y por 15 el rendimiento de inferencia de las generaciones anteriores. Dado que aprovecha la arquitectura de la GPU NVIDIA Blackwell, DGX B200 puede gestionar diversas cargas de trabajo, como modelos lingüísticos de gran tamaño, sistemas de recomendación y chatbots, por lo que resulta ideal para las empresas que quieren acelerar su transformación de IA.
Ventajas
Rendimiento
Rendimiento previsto sujeto a cambios. Latencia de token a token (TTL) = 50 ms en tiempo real, latencia de primer token (FTL) = 5 s, longitud de secuencia de entrada = 32 768, longitud de secuencia de salida = 1028, 8 GPU DGX H100 de ocho vías refrigeradas por aire frente a 1 GPU DGX B200 de ocho vías refrigeradas por aire, por comparación de rendimiento de GPU.
Rendimiento previsto sujeto a cambios. Escala de 32 768 GPU, clúster DGX H100 de ocho vías y refrigeración por aire de 4096x: Red IB de 400 G, clúster DGX B200 de ocho vías y refrigeración por aire de 4096x: red IB de 400 G.
Especificaciones
Tarjeta gráfica (GPU) | 8 GPU NVIDIA Blackwell |
Memoria de GPU | Un total de 1440 GB de memoria de GPU |
Rendimiento | 72 petaFLOPS de entrenamiento y 144 petaFLOPS de inferencia |
Consumo de energía | ~14,3 kW máx. |
CPU | 2 Procesadores Intel® Xeon® Platinum 8570 112 núcleos en total, 2,1 GHz (base), 4 GHz (impulso máximo) |
Memoria del sistema | Hasta 4 TB |
Redes | 4 puertos OSFP para 8 VPI NVIDIA ConnectX-7 de un solo puerto
|
Redes | NIC integrada de 10 Gb/s con RJ45 NIC ethernet de doble puerto de 100 Gb/s Controlador de gestión de placa base (BMC) de host con RJ45 |
Almacenamiento | SO: 2 NVMe M.2 de 1,9 TB Almacenamiento interno: 8 NVMe U.2 de 3,84 TB |
Software | NVIDIA AI Enterprise: software de IA optimizado NVIDIA Base Command™: orquestación, programación y gestión de clústeres DGX OS/Ubuntu: sistema operativo |
Rack Units (RU) | 10 RU |
System Dimensions | Altura: 444 mm (17,5 pulgadas) Ancho: 482,2 mm (19,0 pulgadas) Longitud: 897,1 mm (35,3 pulgadas) |
Operating Temperature | 5–30 °C (41–86 °F) |
Enterprise Support | Soporte técnico empresarial durante tres años para hardware y software Portal de soporte para empresas ininterrumpido Soporte de un agente en directo durante el horario comercial local |
Recursos
NVIDIA DGX SuperPOD™ con sistemas DGX B200 permite a empresas importantes implementar infraestructuras a gran escala y listas para usar con el apoyo de la competencia en IA de NVIDIA.
Los servicios para empresas de NVIDIA proporcionan soporte, formación y servicios profesionales para su infraestructura DGX. Gracias a la disponibilidad de los expertos de NVIDIA en cada paso de su trayectoria en torno a la IA, los servicios para empresas pueden ayudarle a poner en marcha sus proyectos con rapidez y eficacia.
Descubra cómo avanzar más rápidamente con la IA y reciba formación técnica especializada que expertos en IA ofrecen de forma exclusiva a los clientes de DGX en NVIDIA Deep Learning Institute (DLI).
Primeros pasos