Explore os modelos de IA otimizados mais recentes, conecte aplicações a dados com o NVIDIA Blueprints e implante em qualquer lugar com microsserviços NVIDIA NIM.
Integrações
Comece a trabalhar rapidamente com APIs conhecidas.
Aproveite as APIs NVIDIA dos seus SDKs existentes com apenas três linhas de código.
Trabalhe com seus frameworks favoritos de programação LLM, incluindo LangChain e LlamaIndex, e implante facilmente suas aplicações.
Os dados impulsionam aplicações corporativas modernas. Conecte agentes de IA a dados corporativos em escala com um mecanismo de consulta de IA que usa geração aumentada por recuperação (RAG) para equipar os funcionários com conhecimento institucional instantâneo e preciso.
Tudo o que você precisa para criar aplicações de IA generativa impactantes. Cada blueprint inclui microsserviços NVIDIA NIM e parceiros, um ou mais agentes de IA, código de exemplo, instruções de personalização e um gráfico do Helm para implantação.
Execute em Qualquer Lugar
Parte do NVIDIA AI Enterprise, o NVIDIA NIM é um conjunto de microsserviços de inferência fáceis de usar para acelerar a implantação de modelos básicos em qualquer nuvem ou data center e ajudar a manter seus dados seguros.
Implante o NIM para seu modelo com um único comando. Você também pode executar facilmente o NIM com modelos otimizados.
Coloque o NIM em funcionamento com o mecanismo de tempo de execução ideal com base na sua infraestrutura acelerada pela NVIDIA.
Os desenvolvedores podem integrar endpoints NIM auto-hospedados em apenas algumas linhas de código.
Implante perfeitamente microsserviços de IA em contêineres em qualquer infraestrutura acelerada da NVIDIA, desde um único dispositivo até a escala do data center.
Conte com tempos de execução de nível de produção, incluindo atualizações de segurança contínuas, e execute suas aplicações de negócios com APIs estáveis apoiadas por suporte de nível empresarial.
Reduza o custo operacional de execução de modelos em produção com tempos de execução de IA que são continuamente otimizados para baixa latência e alto rendimento na infraestrutura acelerada pela NVIDIA.
O NVIDIA NIM fornece taxa de transferência e latência otimizadas prontas para uso para maximizar a geração de tokens, oferecer suporte a usuários simultâneos em horários de pico e melhorar a capacidade de resposta.
Configuração: Llama3.1-8B-instruir, 1x H100SXM; insira 1000 tokens, produza 1000 tokens. Solicitações simultâneas: 200. NIM ON: FP8. taxa de transferência 6.354 tokens/s, TTFT 0,4s, ITL: 31ms. NIM OFF: FP8. taxa de transferência 2.265 tokens/s, TTFT 1,1s, ITL: 85ms.
Personalização
NVIDIA NeMo™ é uma plataforma de ponta a ponta para desenvolver IA generativa personalizada em qualquer lugar. Ele inclui ferramentas para treinamento, personalização e geração aumentada por recuperação, proteção, curadoria de dados e pré-treinamento de modelos, oferecendo às empresas uma maneira fácil, econômica e rápida de adotar a IA generativa.
Casos de Uso
Veja como as APIs da NVIDIA oferecem suporte a casos de uso do setor e impulsione seu desenvolvimento de IA com exemplos selecionados.
Ecossistema
Desenvolva suas aplicações de IA com modelos, kits de ferramentas, bancos de dados vetoriais,
frameworks e infraestrutura com nossos principais parceiros.
Recursos
Explore a documentação técnica para começar a prototipar e criar suas aplicações corporativas de IA com APIs NVIDIA ou dimensione em sua própria infraestrutura com o NVIDIA NIM.