Explore los últimos modelos de IA creados por la comunidad con una API optimizada y acelerada por NVIDIA. Luego, impleméntelos en cualquier lugar con los microservicios de inferencia NVIDIA NIM.
Integraciones
Póngase en marcha rápidamente con API conocidas.
Use las API de NVIDIA desde sus herramientas y aplicaciones con tan solo tres líneas de código.
Trabaje con sus marcos de programación LLM favoritos, incluidos LangChain y LlamaIndex, e implemente sus aplicaciones con facilidad.
Los datos impulsan las aplicaciones empresariales modernas. Conecte los agentes de IA a los datos empresariales a escala con un motor de consultas de IA que utiliza generación aumentada de recuperación (RAG) para ofrecer a los empleados conocimiento institucional instantáneo y preciso.
Todo lo que necesita para crear aplicaciones de IA generativa impactantes. Cada plano incluye microservicios NVIDIA NIM y de partners, uno o más agentes de IA, código de ejemplo, instrucciones de personalización y un gráfico de Helm para la implementación.
Ejecución en cualquier plataforma
NVIDIA NIM, parte de NVIDIA AI Enterprise, es un conjunto de microservicios de inferencia fáciles de usar creados para acelerar la implementación de modelos de base en cualquier nube o centro de datos y para ayudar a proteger sus datos.
Implemente NIM para su modelo con un solo comando. También puede ejecutar NIM fácilmente con modelos ajustados.
Ponga en marcha NIM con el motor de entorno de ejecución óptimo basado en su infraestructura acelerada por NVIDIA.
Los desarrolladores pueden integrar extremos NIM alojados automáticamente con tan solo unas pocas líneas de código.
Implemente microservicios de IA en contenedores en cualquier infraestructura acelerada de NVIDIA, desde un único dispositivo hasta un todo un centro de datos.
Disfrute de tiempos de ejecución de producción, incluidas las actualizaciones de seguridad continuas y ejecute sus aplicaciones empresariales con API estables respaldadas por un soporte de categoría empresarial.
Reduzca el coste operativo de ejecutar modelos en producción con tiempos de ejecución de IA que se optimizan continuamente para baja latencia y alto rendimiento en infraestructura acelerada por NVIDIA.
NVIDIA NIM ofrece un rendimiento y latencia optimizados para maximizar la generación de token, dar soporte a usuarios simultáneos en horas punta y mejorar la capacidad de respuesta.
Configuración: Llama3.1-8B-instruct, 1x H100SXM; entrada 1000 tokens, salida 1000 tokens. Peticiones simultáneas: 200. NIM ON: FP8. Rendimiento 6 354 tokens/s, TTFT 0.4 s, ITL: 31 ms. NIM OFF: FP8. rendimiento 2,265 tokens/s, TTFT 1.1 s, ITL: 85 ms
Personalización
NVIDIA NeMo™ es una plataforma integral para desarrollar IA generativa personalizada en cualquier lugar. Incluye herramientas para entrenamiento, personalización y generación aumentada por recuperación (RAG, por sus siglas en inglés), barreras protectoras, selección de datos y preentrenamiento de modelos, ofreciendo a las empresas una forma fácil, rentable y rápida de adoptar IA generativa.
Cómo Comprar
Casos de uso
Descubra cómo las API de NVIDIA respaldan casos de uso del sector y ponga en marcha su desarrollo de IA con ejemplos prácticos.
Ecosistema
Únete a colaboradores líderes para desarrollar tus aplicaciones de IA con modelos, kits de herramientas,
bases de datos vectoriales, entornos de trabajo e infraestructura de nuestro ecosistema.
Recursos
Consulte la documentación técnica para empezar a crear prototipos y aplicaciones de IA empresariales con las API de NVIDIA.