O NVIDIA NIM™ fornece microsserviços de inferência pré-construídos e otimizados para a implantação rápida dos modelos de IA mais recentes em qualquer infraestrutura acelerada pela NVIDIA: nuvem, data center, workstation e edge.
Inferência de IA Generativa com Tecnologia NVIDIA NIM: Desempenho e TCO
Veja como os microsserviços NIM têm um desempenho melhor do que as alternativas mais conhecidas. Eles podem processar até 3 vezes mais tokens por segundo quando executados na mesma infraestrutura acelerada pela NVIDIA.
Tenha acesso à prototipagem ilimitada com APIs hospedadas para o NIM aceleradas pelo DGX Cloud ou faça o download e hospede você mesmo os microsserviços NIM para pesquisa e desenvolvimento como parte do Programa de Desenvolvedores NVIDIA.
O NVIDIA NIM combina a facilidade de uso e a simplicidade operacional das APIs gerenciadas com a flexibilidade e segurança dos modelos de auto-hospedagem na sua infraestrutura preferida. Os microsserviços NIM acompanham tudo o que as equipes de IA precisam: modelos fundacionais de IA mais recentes, mecanismos de inferência otimizados, APIs padrão do setor e dependências de tempo de execução, pré-empacotados em contêineres de software de nível empresarial prontos para implantação e dimensionamento em qualquer lugar.
Benefícios
IA Generativa Empresarial Que Faz Mais por Menos
Microsserviços fáceis de usar e de nível empresarial criados para IA de alto desempenho, projetados para funcionar com perfeição e escalar de maneira acessível. Experimente o mais rápido tempo de geração de valor para agentes de IA e outras aplicações de IA generativa empresarial, capacitadas pelos modelos de IA mais recentes para lógica, simulação, fala e muito mais.
Facilidade de Uso
Acelere a inovação e o tempo de chegada ao mercado com microsserviços pré-construídos e otimizados para os modelos de IA mais recentes. Com APIs padrão, os modelos podem ser implantados em cinco minutos e facilmente integrados às aplicações.
Implante microsserviços de nível empresarial que são continuamente gerenciados pela NVIDIA por meio de processos de validação rigorosos e ramais de recursos dedicados, todos com suporte empresarial da NVIDIA, que também oferece acesso direto aos seus especialistas em IA.
Desempenho e Escala
Melhore o TCO com a inferência de IA de baixa latência e alto rendimento que escala com a nuvem, e alcance a melhor precisão com suporte para modelos minuciosamente ajustados e prontos para uso.
Implante em qualquer lugar com microsserviços pré-construídos e nativos de nuvem prontos para execução em qualquer infraestrutura acelerada pela NVIDIA (nuvem, data center e workstation) e escale com perfeição em ambientes Kubernetes e de provedores de serviços de nuvem.
Demonstração
Crie Agentes de IA Com o NIM
Saiba como configurar dois agentes de IA, um para geração de conteúdo e outro para design gráfico digital, e veja como é fácil começar a usar os microsserviços NIM.
Obtenha os modelos de IA mais recentes para lógica, linguagem, recuperação, fala, visão e muito mais, prontos para implantação em cinco minutos em qualquer infraestrutura acelerada pela NVIDIA.
Dê Início ao Desenvolvimento com os NVIDIA Blueprints
Crie aplicações de IA baseada em agentes impactantes com workflows de referência abrangentes que incluem bibliotecas de aceleração da NVIDIA, SDKs e microsserviços NIM.
Simplifique o Desenvolvimento com o Kit de Ferramentas NVIDIA AgentIQ
Transforme microsserviços NIM em aplicações de IA baseadas em agentes com a biblioteca NVIDIA AgentIQ, um kit de ferramentas para desenvolvedores projetado para a criação de agentes de IA e sua integração em workflows personalizados.
O NVIDIA NIM fornece rendimento e latência otimizados desde o início para maximizar a geração de tokens, além de oferecer suporte a usuários simultâneos em horários de pico e melhorar a capacidade de resposta. Os microsserviços NIM são continuamente atualizados com os mecanismos de inferência otimizados mais recentes, aumentando o desempenho na mesma infraestrutura ao longo do tempo.
Configuração: instrução Llama 3.1 8B, 1 unidade de H100 SXM; solicitações simultâneas: 200. NIM ATIVO: FP8, rendimento de 1201 tokens/s, ITL de 32 ms. NIM INATIVO: FP8, rendimento de 613 tokens/s, ITL de 37 ms.
Modelos
Crie Com os Principais Modelos Abertos
Obtenha um desempenho de inferência otimizado para os modelos de IA mais recentes para capacitar a IA baseada em agentes multimodais com lógica, linguagem, recuperação, fala, imagem e muito mais. O NIM vem com mecanismos de inferência acelerada da NVIDIA e da comunidade, incluindo o NVIDIA® TensorRT™, o TensorRT-LLM e muito mais, pré-criados e otimizados para inferência de baixa latência e alto rendimento na infraestrutura acelerada pela NVIDIA.
O Modo Fácil para o Desenvolvimento e a Implantação de IA
Projetados para serem executados em qualquer lugar, os microsserviços de inferência NIM expõem APIs padrão do setor para fácil integração com sistemas e aplicações empresariais, além de escalarem com perfeição no Kubernetes para oferecer inferência de alto rendimento e baixa latência em escala de nuvem.
Implante o NIM
Implante o NIM para o seu modelo com um único comando. Também é fácil você executar o NIM com modelos ajustados com precisão.
Inferência de Execução
Coloque o NIM em funcionamento com o mecanismo de tempo de execução ideal baseado em sua infraestrutura acelerada pela NVIDIA.
Criação
Integre os terminais auto-hospedados do NIM com apenas algumas linhas de código.
Use o OpenUSD e a IA generativa para desenvolver e implantar ferramentas e experiências de configuradores de produtos 3D em praticamente qualquer dispositivo.
Converse com um especialista em IA da NVIDIA sobre como migrar a fases de testes da IA generativa para a produção com a segurança, a estabilidade da API e o suporte que acompanham o NVIDIA AI Enterprise.
Explore seus casos de uso de IA generativa.
Discuta seus requisitos técnicos.
Alinhe as soluções de IA da NVIDIA com seus objetivos e exigências.
Desenvolvendo um Gerador de Fundo com IA com o NIM
Analise o processo de criação de uma aplicação baseada no kit NVIDIA Omniverse™ habilitada para IA. Você aprenderá como usar as extensões do Omniverse, os microsserviços NIM e o código Python para adicionar uma extensão capaz de gerar fundos a partir de entradas de texto.
Tenha acesso ilimitado aos terminais da API do NIM para prototipagem, acelerada pelo DGX Cloud. Quando tudo estiver pronto para a produção, faça o download e hospede você mesmo o NIM na sua infraestrutura preferida (workstation, data center, edge ou nuvem) ou acesse os terminais do NIM hospedados por parceiros da NVIDIA.
Converse com um especialista em produtos da NVIDIA sobre como migrar da fase de testes para a produção com a segurança, a estabilidade da API e o suporte que acompanham o NVIDIA AI Enterprise.