Los modelos de IA son cada vez más complejos a medida que se enfrentan a desafíos de siguiente nivel, como la IA conversacional. Entrenarlos requiere una enorme potencia informática y escalabilidad.
Los NVIDIA A100 Tensor Cores con Tensor Float (TF32) proporcionan hasta 20 veces el rendimiento que NVIDIA Volta con cero cambios de código y un impulso adicional 2 veces con precisión mixta automática y FP16. Cuando se combina con NVIDIA® NVLink®, NVIDIA NVSwitch™, PCI Gen4, NVIDIA® Mellanox® InfiniBand® y NVIDIA Magnum IO™ SDK, es posible escalar a miles de GPU A100.
Una carga de trabajo de capacitación como BERT se puede resolver para escalar en menos de un minuto con 2.048 GPU A100, un tiempo récord mundial para resolver.
Para modelos más grandes con tablas de datos masivas, como los modelos de recomendación de aprendizaje profundo (DLRM), el A100 80GB alcanza hasta 1.3TB de memoria unificada por nodo y ofrece un aumento de rendimiento hasta 3 veces mayor que el A100 40GB.
El liderazgo de NVIDIA en MLPerf ha establecido múltiples récords de rendimiento en el punto de referencia de la industria para la capacitación en inteligencia artificial.