Il training di modelli con IA per sfide di livello superiore come l'IA conversazionale richiede un'enorme potenza di calcolo e scalabilità.
I Tensor Core nella NVIDIA A30 con precisione Tensor Float (TF32) offrono prestazioni 10 volte superiori rispetto alla NVIDIA T4, senza alcuna alterazione del codice, e un ulteriore incremento pari a 2 volte con precisione mista e FP16, garantendo un aumento della produttività pari a 20 volte. Con NVIDIA® NVLink®, PCIe Gen4, networking NVIDIA Mellanox® e l'SDK NVIDIA Magnum IO™, è possibile scalare a migliaia di GPU.
I Tensor Core e MIG consentono di utilizzare la A30 per i carichi di lavoro in modo dinamico durante il giorno. Può essere utilizzata per l'inferenza nel picco di produzione, mentre parte della GPU può essere riutilizzata per ri-addestrare rapidamente quegli stessi modelli durante le ore non di punta.
NVIDIA stabilisce vari record di prestazioni nel MLPerf, il benchmark di settore per il training con IA.