Inferencia de LLM y eficiencia energética: TTL= 50 milisegundos (ms) en tiempo real, FTL= 5 s, 32 768 entradas/1024 salidas, NVIDIA HGX™ H100 escalada sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de HGX H100 de 4096x MOE 1.8T escalada sobre IB frente a GB200 NVL72 de 456x escalada sobre IB. Tamaño del clúster: 32 768
Una carga de trabajo de agregación y unión a bases de datos con compresión Snappy/Deflate derivada de la consulta TPC-H Q4. Implementaciones de consulta personalizadas para una sola GPU x86, H100 y una sola GPU de GB200 NLV72 frente a Intel Xeon 8480+
Rendimiento previsto sujeto a cambios.