Para se conectar com as informações, os serviços e os produtos mais relevantes, as empresas de hiperescala começaram a explorar a AI. No entanto, acompanhar a demanda do usuário é um grande desafio. Por exemplo, a maior empresa de hiperescala do mundo estimou recentemente que precisaria dobrar sua capacidade de data center se todos os usuários gastassem apenas três minutos por dia usando seu serviço de reconhecimento de fala.
A V100 foi projetada para oferecer o máximo desempenho em racks de servidores de hiperescala existentes. Com a AI em seu núcleo, a GPU V100 oferece um desempenho de inferência 47 vezes maior que um servidor com CPU. Esse grande salto na taxa de transferência e eficiência tornará o dimensionamento dos serviços de AI mais práticos.