NVIDIA NIM™ ofrece microservicios de inferencia optimizados y prediseñados para implementar rápidamente los últimos modelos de IA en cualquier infraestructura acelerada por NVIDIA: la nube, el centro de datos, la estación de trabajo y el perímetro.
Inferencia de IA generativa con la tecnología de NVIDIA NIM: rendimiento y coste total de propiedad
Compruebe cómo los microservicios NIM tienen mejor rendimiento que las alternativas populares. Pueden procesar hasta 3 veces más tokens por segundo cuando se ejecutan en la misma infraestructura acelerada por NVIDIA.
Obtenga acceso a creación de prototipos ilimitada con API alojadas para NIM aceleradas por DGX Cloud, o descargue y autoaloje microservicios NIM para investigación y desarrollo como parte del programa de desarrolladores de NVIDIA.
NVIDIA NIM combina la facilidad de uso y la simplicidad operativa de las API gestionadas con la flexibilidad y la seguridad de los modelos autohospedados en su infraestructura preferida. Los microservicios NIM incluyen todo lo que los equipos de IA requieren —los últimos modelos básicos de IA, motores de inferencia optimizados, interfaces API estándar del sector y dependencias en tiempo de ejecución— preempaquetados en contenedores de software de nivel empresarial listos para que puedan implementarse y escalarse en cualquier lugar.
Ventajas
IA generativa empresarial que hace más por menos
Microservicios sencillos de nivel empresarial construidos para la IA de alto rendimiento, diseñados para funcionar a la perfección y escalar de forma asequible. Experimente el tiempo de obtención de valor más rápido para agentes de IA y otras aplicaciones de IA generativa empresarial, impulsadas por los últimos modelos de IA para razonamiento, simulación, voz y mucho más.
Facilidad de uso
Acelere la innovación y el tiempo de comercialización con microservicios optimizados y prediseñados para los últimos modelos de IA. Con las API estándar, los modelos se pueden implementar en cinco minutos e integrarse fácilmente en las aplicaciones.
Implemente microservicios de nivel empresarial que NVIDIA gestiona continuamente a través de procesos de validación rigurosos y ramificaciones de características dedicadas, todo ello respaldado por el soporte empresarial de NVIDIA, que ofrece además acceso directo a los expertos de NVIDIA AI.
Rendimiento y escala
Mejore el coste total de la propiedad (TCO) mediante la inferencia de IA de alta capacidad de procesamiento y baja latencia que escala con la nube y logre la mejor precisión con compatibilidad para modelos ajustados con precisión listos para usar.
Implemente donde quiera con microservicios prediseñados, nativos de la nube, listos para ejecutarse en cualquier infraestructura acelerada por NVIDIA (nube, centro de datos o estación de trabajo) y escale sin complicaciones en entornos de Kubernetes y de proveedor de servicios en la nube.
Demostración
Cree agentes de IA con NIM
Aprenda a configurar dos agentes de IA, uno para la generación de contenido y otro para el diseño gráfico digital, y compruebe lo fácil que resulta ponerse en marcha con los microservicios NIM.
Obtenga los últimos modelos de IA de razonamiento, lenguaje, recuperación, voz, visión y mucho más, listos para implementarse en cinco minutos en cualquier infraestructura acelerada por NVIDIA.
Cree impactantes aplicaciones de IA de agentes, con flujos de trabajo de referencia integrales que incorporan bibliotecas de aceleración de NVIDIA, kits de desarrollo y microservicios NIM.
Simplifique el desarrollo con el kit de herramientas NVIDIA AgentIQ
Integre microservicios NIM en aplicaciones de IA de agentes con la biblioteca NVIDIA AgentIQ, un kit de herramientas de desarrollo para crear agentes de IA e integrarlos en flujos de trabajo personalizados.
NVIDIA NIM ofrece capacidad de procesamiento y latencia optimizados preparados para maximizar la generación de tokens, admitir usuarios simultáneos en momentos pico y mejorar la capacidad de respuesta. Los microservicios NIM se actualizan continuamente con los últimos motores de inferencia optimizados y aumentan el rendimiento en la misma infraestructura con el tiempo.
Configuración: instrucción Llama 3.1 8B, 1 H100 SXM; solicitudes simultáneas: 200. NIM ACTIVADO: FP8, rendimiento 1201 tokens/s, ITL 32 ms. NIM DESACTIVADO: FP8, rendimiento de 613 tokens/seg, ITL 37 ms.
Modelos
Cree con los principales modelos abiertos
Obtenga un rendimiento de inferencia optimizado para los últimos modelos de IA para impulsar la IA de agentes multimodal con razonamiento, lenguaje, recuperación, voz, imagen y mucho más. NIM lleva integrados motores de inferencia acelerados de NVIDIA y de la comunidad, que incluyen NVIDIA® TensorRT™, TensorRT-LLM, entre otros, preconfigurados y optimizados para lograr inferencia de baja latencia y alta capacidad de procesamiento en infraestructuras aceleradas por NVIDIA.
El botón fácil para el desarrollo y la implementación de IA
Al estar diseñados para ejecutarse en cualquier lugar, los microservicios de inferencia NIM ponen a su disposición las API estándar del sector para simplificar la integración con los sistemas y aplicaciones empresariales y escalan de forma impecable en Kubernetes para brindar una inferencia de alta capacidad de procesamiento y baja latencia a escala de nube.
Implemente NIM
Implemente NIM para su modelo con un solo comando. También puede ejecutar fácilmente NIM con modelos ajustados con precisión.
Ejecute inferencia
Ponga en marcha NIM con el motor de tiempo de ejecución óptimo basado en su infraestructura acelerada por NVIDIA.
Desarrolle
Los desarrolladores pueden integrar puntos finales NIM autohospedados con tan solo unas pocas líneas de código.
Utilice OpenUSD y la IA generativa para desarrollar e implementar herramientas y experiencias de configurador de productos 3D en prácticamente cualquier dispositivo.
Hable con un especialista en IA de NVIDIA sobre cómo implantar pilotos de IA generativa en la fase de producción con la seguridad, la estabilidad de API y la asistencia técnica que ofrece NVIDIA AI Enterprise.
Explore sus casos de uso de IA generativa.
Hable sobre sus requisitos técnicos.
Ajuste las soluciones de IA de NVIDIA a sus objetivos y requisitos.
Analice el proceso de creación de una aplicación habilitada por IA y basada en el Kit NVIDIA Omniverse™. Aprenderá a utilizar extensiones de Omniverse, los microservicios NIM y código Python para agregar una extensión con capacidad de generar fondos a partir de entrada de texto.
Microservicios NVIDIA NIM para ordenadores con IA RTX
Saque el máximo partido de los últimos modelos de IA generativa de forma local en su ordenador con IA NVIDIA RTX™ equipados con NVIDIA NIM y NVIDIA Blueprints.
Obtenga acceso ilimitado a puntos finales de la API NIM para creación de prototipos, acelerada por DGX Cloud. Cuando esté listo para producción, descargue y autoaloje NIM en su infraestructura preferida (estación de trabajo, centro de datos, perímetro o nube), o acceda a puntos finales NIM alojados por partners de NVIDIA.
Hable con un especialista en productos de NVIDIA sobre cómo pasar de la fase piloto a la de producción con la seguridad, estabilidad de API y asistencia técnica que ofrece NVIDIA AI Enterprise.