O revolucionário acelerador universal para vídeo, AI e gráficos eficientes.
A GPU NVIDIA L4 Tensor Core alimentada pela arquitetura NVIDIA Ada Lovelace proporciona aceleração universal e eficiente em termos de energia para AI, vídeo, computação visual, gráficos, virtualização e muito mais. Empacotado em um formato de baixo perfil, o L4 é uma solução econômica e eficiente em termos energéticos para alta produtividade e baixa latência em todos os servidores, desde o edge até o data center e o cloud.
Desempenho medido: 8x L4 vs 2S Servidor CPU Intel 8362 comparação, pipeline de vídeo de ponta a ponta com decodificação CV-CUDA®, pré-processamento, inferência (SegFormer), pós-processamento, codificação, NVIDIA® TensorRT™ 8.6 vs. gasoduto somente CPU usando OpenCV 4.7, inferência PyTorch.
Transformar aplicações de vídeo com o poder da NVIDIA L4. Seja streaming ao vivo para milhões de espectadores, permitindo que os usuários construam histórias criativas, ou fornecendo experiências imersivas de realidade aumentada e virtual (AR/VR), os servidores equipados com L4 permitem hospedar até 1.040 streams de vídeo AV1 simultâneos a 720p30 para usuários móveis.¹
Com Tensor Cores de quarta geração e memória GPU 1,5X maior, as GPUs NVIDIA L4 emparelhadas com a biblioteca CV-CUDA® levam o conteúdo de vídeo a um novo nível de compreensão. O L4 oferece uma performance de vídeo AI 120X superior às soluções baseadas em CPU, permitindo que as empresas obtenham insights em tempo real para personalizar o conteúdo, melhorar a relevância da busca, detectar conteúdo questionável e implementar soluções de espaço inteligente.
1. Desempenho medido: 8x L4 AV1 codificação de baixa latência P1 predefinida a 720p30.
À medida que a IA e o vídeo se tornam mais difundidos, a demanda por computação eficiente e econômica está aumentando mais do que nunca. As GPUs NVIDIA L4 Tensor Core oferecem até 120X melhor performance de vídeo AI, resultando em até 99% melhor eficiência energética e menor custo total de propriedade em comparação com a infra-estrutura tradicional baseada em CPU. Isto permite que as empresas reduzam o espaço do rack e significativamente sua pegada de carbono, ao mesmo tempo em que são capazes de dimensionar seus centros de dados para muito mais usuários. A energia economizada ao mudar de CPUs para NVIDIA L4s em um data center de 2 megawatts (MW) pode alimentar quase 2.000 casas por um ano ou igualar a compensação de carbono de 172.000 árvores cultivadas em 10 anos.²
2. Resultados da calculadora EPA usando uma economia de 1,677MW.EPA.
8x L4 vs. 2S Comparação do TCO do servidor CPU Intel 8362: pipeline de vídeo ponta a ponta com pré e pós-processamento CV-CUDA, decodificação, inferência (SegFormer), codificação, TRT 8.6 vs. pipeline somente CPU usando OpenCV 4.7, inferência PyTorch.
Desempenho projetado: geração de imagem L4 vs T4, 512x512 difusão estável v2.1, FP16, TensorRT 8.5.2.
A AI generativa para imagens e textos torna a vida dos clientes mais conveniente e as experiências mais imersivas em todos os setores. A NVIDIA L4 supercarrega a inferência de IA generativa computacional intensiva, fornecendo uma performance até 2,5X maior em comparação com a geração anterior de GPU. E com 50% a mais de capacidade de memória, o L4 permite uma geração de imagem maior, até 1024x768, o que não era possível na geração anterior de GPU.
Desempenho medido: Renderização em tempo real: Performance da NVIDIA Omniverse™ para renderização em tempo real a 1080p e 4K com o NVIDIA Deep Learning Super Amostragem (DLSS) 3.
Ray tracing: Geomean de desempenho de jogos para títulos AAA que suportam traçado de raio e DLSS 3.
Com a terceira geração de núcleos RT e a NVIDIA Deep Learning Super Sampling 3 (DLSS 3), a NVIDIA L4 oferece mais de 4X melhor desempenho para avatares baseados em IA, mundos virtuais NVIDIA Omniverse™, jogos em nuvem e estações de trabalho virtuais. Estas capacidades permitem aos criadores construir gráficos e cenas em tempo real e com qualidade cinematográfica para experiências visuais imersivas não possíveis com CPUs.
NVIDIA L4 é parte integrante da plataforma do centro de dados NVIDIA. Construída para vídeo, AI, NVIDIA RTX™ estação de trabalho virtual (vWS), gráficos, simulação, ciência de dados e análise de dados, a plataforma acelera mais de 3.000 aplicativos e está disponível em todos os lugares em escala, do centro de dados à borda ao cloud, proporcionando tanto ganhos dramáticos de desempenho quanto oportunidades de eficiência energética.
Otimizado para as principais implementações, o L4 oferece um fator de forma de baixo perfil operando em um envelope de baixa potência de 72W, tornando-o uma solução eficiente e econômica para qualquer servidor ou instância de nuvem do ecossistema parceiro da NVIDIA.
Otimizado para agilizar o desenvolvimento e implantação de AI, o pacote de software NVIDIA AI Enterprise inclui fluxos de trabalho de soluções de AI, estruturas, modelos pré-treinados e otimização de infra-estrutura que são certificados para rodar em plataformas comuns de data center e com o NVIDIA-Certified Systems™ com GPUs NVIDIA L4.
NVIDIA AI Enterprise é uma adição de licença para GPUs NVIDIA L4, tornando a AI acessível a quase todas as organizações com a mais alta performance em treinamento, inferência e ciência de dados. A NVIDIA AI Enterprise, juntamente com a NVIDIA L4, simplifica a construção de uma plataforma pronta para AI, acelera o desenvolvimento e a implantação de AI, e oferece performance, segurança e escalabilidade para reunir insights mais rapidamente e atingir valor comercial mais cedo.
Form Factor | L4 |
---|---|
FP32 | 30.3 teraFLOPs |
TF32 Tensor Core | 120 teraFLOPS* |
FP16 Tensor Core | 242 teraFLOPS* |
BFLOAT16 Tensor Core | 242 teraFLOPS* |
FP8 Tensor Core | 485 teraFLOPs* |
INT8 Tensor Core | 485 TOPs* |
Memória GPU | 24GB |
Largura de banda de memória GPU | 300GB/s |
NVENC | NVDEC | JPEG decoders | 2 | 4 | 4 |
Potência máxima de projeto térmico (TDP) | 72W |
Fator forma | 1-slot low-profile, PCIe |
Interconnect | PCIe Gen4 x16 64GB/s |
Opções de servidor | Parceiros e sistemas certificados NVIDIA com 1-8 GPUs |
* Mostrado com parcimônia. As especificações são meio inferiores sem esparsidade.