A IA resolve uma ampla gama de desafios de negócios, usando uma variedade igualmente ampla de redes neurais. Um excelente acelerador de inferência de IA deve não apenas oferecer o mais alto desempenho, mas também a versatilidade para acelerar essas redes.
A H100 amplia a liderança de inferência da NVIDIA com vários avanços que aceleram a inferência em até 30 vezes e oferecem a menor latência. Os Núcleos Tensor de quarta geração aceleram todas as precisões, incluindo FP64, TF32, FP32, FP16, INT8 e agora FP8, para reduzir o uso de memória e aumentar o desempenho, mantendo a precisão dos LLMs.