Modelos de treinamento de AI para desafios complexos, como os de AI de conversação, exigem muita potência computacional e escalabilidade.
Os Tensor Cores com Tensor Float (TF32) da NVIDIA A30 proporcionam um desempenho até 10 vezes maior em relação à NVIDIA T4 com nenhuma alteração no código e um aumento adicional de 2 vezes com precisão mista automática e FP16, oferecendo um rendimento total 20 vezes superior. Com a NVIDIA®NVLink®, o PCIe de 4ª geração, a networking NVIDIA Mellanox® e o SDK NVIDIA Magnum IO™, é possível dimensionar para milhares de GPUs.
Com os Tensor Cores e a MIG, é possível usar a A30 para executar cargas de trabalho dinamicamente ao longo do dia. Ela pode ser usada para tarefas de inferência de produção com demanda máxima, e parte da GPU pode ser reaproveitada para treinar esses mesmos modelos em horários de demanda normal com rapidez.
A NVIDIA registrou vários recordes de desempenho no MLPerf, o benchmark do setor para treinamento de AI.
Saiba mais sobre a arquitetura NVIDIA Ampere para treinamento ›