NVIDIA AI

Microservicios NVIDIA NIM

Diseñados para posibilitar una implementación rápida y fiable de la inferencia de IA generativa acelerada en cualquier lugar.

Descripción

¿Qué es NVIDIA NIM?

NVIDIA NIM™ ofrece microservicios de inferencia optimizados y prediseñados para implementar rápidamente los últimos modelos de IA en cualquier infraestructura acelerada por NVIDIA: la nube, el centro de datos, la estación de trabajo y el perímetro.

Inferencia de IA generativa con la tecnología de NVIDIA NIM: rendimiento y coste total de propiedad

Compruebe cómo los microservicios NIM tienen mejor rendimiento que las alternativas populares. Pueden procesar hasta 3 veces más tokens por segundo cuando se ejecutan en la misma infraestructura acelerada por NVIDIA.

Acceso de desarrollo gratuito a NIM

Obtenga acceso a creación de prototipos ilimitada con API alojadas para NIM aceleradas por DGX Cloud, o descargue y autoaloje microservicios NIM para investigación y desarrollo como parte del programa de desarrolladores de NVIDIA.

Acelere la implementación de IA con NVIDIA NIM

NVIDIA NIM combina la facilidad de uso y la simplicidad operativa de las API gestionadas con la flexibilidad y la seguridad de los modelos autohospedados en su infraestructura preferida. Los microservicios NIM incluyen todo lo que los equipos de IA requieren —los últimos modelos básicos de IA, motores de inferencia optimizados, interfaces API estándar del sector y dependencias en tiempo de ejecución— preempaquetados en contenedores de software de nivel empresarial listos para que puedan implementarse y escalarse en cualquier lugar.

Diagrama de pila de NVIDIA NIM

Ventajas

IA generativa empresarial que hace más por menos

Microservicios sencillos de nivel empresarial construidos para la IA de alto rendimiento, diseñados para funcionar a la perfección y escalar de forma asequible. Experimente el tiempo de obtención de valor más rápido para agentes de IA y otras aplicaciones de IA generativa empresarial, impulsadas por los últimos modelos de IA para razonamiento, simulación, voz y mucho más. 

Icono que representa facilidad de uso

Facilidad de uso

Acelere la innovación y el tiempo de comercialización con microservicios optimizados y prediseñados para los últimos modelos de IA. Con las API estándar, los modelos se pueden implementar en cinco minutos e integrarse fácilmente en las aplicaciones.

Icono que representa seguridad y manejabilidad

Nivel empresarial

Implemente microservicios de nivel empresarial que NVIDIA gestiona continuamente a través de procesos de validación rigurosos y ramificaciones de características dedicadas, todo ello respaldado por el soporte empresarial de NVIDIA, que ofrece además acceso directo a los expertos de NVIDIA AI.

Icono que representa rendimiento y escala

Rendimiento y escala

Mejore el coste total de la propiedad (TCO) mediante la inferencia de IA de alta capacidad de procesamiento y baja latencia que escala con la nube y logre la mejor precisión con compatibilidad para modelos ajustados con precisión listos para usar.

Icono que representa portabilidad

Portabilidad

Implemente donde quiera con microservicios prediseñados, nativos de la nube, listos para ejecutarse en cualquier infraestructura acelerada por NVIDIA (nube, centro de datos o estación de trabajo) y escale sin complicaciones en entornos de Kubernetes y de proveedor de servicios en la nube. 

Demostración

Cree agentes de IA con NIM

Aprenda a configurar dos agentes de IA, uno para la generación de contenido y otro para el diseño gráfico digital, y compruebe lo fácil que resulta ponerse en marcha con los microservicios NIM.


Tecnología

Bloques de construcción para la IA de agentes

Icono de NIM de razonamiento

Obtenga los últimos modelos de razonamiento de IA

Obtenga los últimos modelos de IA de razonamiento, lenguaje, recuperación, voz, visión y mucho más, listos para implementarse en cinco minutos en cualquier infraestructura acelerada por NVIDIA.

Icono de NVIDIA Blueprints

Impulse el desarrollo con NVIDIA Blueprints

Cree impactantes aplicaciones de IA de agentes, con flujos de trabajo de referencia integrales que incorporan bibliotecas de aceleración de NVIDIA, kits de desarrollo y microservicios NIM.

Icono del kit de herramientas AgentIQ

Simplifique el desarrollo con el kit de herramientas NVIDIA AgentIQ

Integre microservicios NIM en aplicaciones de IA de agentes con la biblioteca NVIDIA AgentIQ, un kit de herramientas de desarrollo para crear agentes de IA e integrarlos en flujos de trabajo personalizados.

Pruebas de rendimiento

Potencie la capacidad de procesamiento con NIM

NVIDIA NIM ofrece capacidad de procesamiento y latencia optimizados preparados para maximizar la generación de tokens, admitir usuarios simultáneos en momentos pico y mejorar la capacidad de respuesta. Los microservicios NIM se actualizan continuamente con los últimos motores de inferencia optimizados y aumentan el rendimiento en la misma infraestructura con el tiempo.

0.0x0.5x1.0x1.5x2x2X1XNIM OnNIM Off

Configuración: instrucción Llama 3.1 8B, 1 H100 SXM; solicitudes simultáneas: 200. NIM ACTIVADO: FP8, rendimiento 1201 tokens/s, ITL 32 ms. NIM DESACTIVADO: FP8, rendimiento de 613 tokens/seg, ITL 37 ms.

Modelos

Cree con los principales modelos abiertos

Obtenga un rendimiento de inferencia optimizado para los últimos modelos de IA para impulsar la IA de agentes multimodal con razonamiento, lenguaje, recuperación, voz, imagen y mucho más. NIM lleva integrados motores de inferencia acelerados de NVIDIA y de la comunidad, que incluyen NVIDIA® TensorRT™, TensorRT-LLM, entre otros, preconfigurados y optimizados para lograr inferencia de baja latencia y alta capacidad de procesamiento en infraestructuras aceleradas por NVIDIA. 


Características

El botón fácil para el desarrollo y la implementación de IA

Al estar diseñados para ejecutarse en cualquier lugar, los microservicios de inferencia NIM ponen a su disposición las API estándar del sector para simplificar la integración con los sistemas y aplicaciones empresariales y escalan de forma impecable en Kubernetes para brindar una inferencia de alta capacidad de procesamiento y baja latencia a escala de nube.

Implemente NIM

Implemente NIM para su modelo con un solo comando. También puede ejecutar fácilmente NIM con modelos ajustados con precisión.

Ejecute inferencia

Ponga en marcha NIM con el motor de tiempo de ejecución óptimo basado en su infraestructura acelerada por NVIDIA.

Desarrolle

Los desarrolladores pueden integrar puntos finales NIM autohospedados con tan solo unas pocas líneas de código.

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

Casos de uso

Cómo se está usando NIM

Compruebe cómo NVIDIA NIM resulta útil en casos de uso del sector e inicie su desarrollo de IA con ejemplos seleccionados.

Asistentes virtuales de IA

Mejore las experiencias de los clientes y los procesos empresariales en las telecomunicaciones con la IA generativa.

Humano virtual en una sesión de chat virtual.

Cómo empezar

Maneras de empezar a usar NVIDIA NIM

Empiece a crear prototipos gratis

Empiece con puntos finales de API fáciles de usar para NIM, con tecnología de DGX Cloud.

  • Acceda a una infraestructura de IA totalmente acelerada.
  • Asegúrese de que sus datos no se utilizan para el entrenamiento de modelos.
  • Acceda para desarrollo y pruebas como parte del programa de desarrolladores de NVIDIA.

Descargar e implementar

Ejecute NVIDIA NIM para escalar modelos de IA optimizados en la nube o en el centro de datos que prefiera.

  • Asegúrese de que los datos nunca salgan de su enclave seguro.
  • Transición perfecta de puntos finales de la nube a API autoalojadas sin cambios de código.
  • Empiece con acceso gratuito para desarrollo y pruebas y pase a una licencia de NVIDIA AI Enterprise para producción.

Contáctenos

Hable con un especialista en IA de NVIDIA sobre cómo implantar pilotos de IA generativa en la fase de producción con la seguridad, la estabilidad de API y la asistencia técnica que ofrece NVIDIA AI Enterprise.

  • Explore sus casos de uso de IA generativa.
  • Hable sobre sus requisitos técnicos.
  • Ajuste las soluciones de IA de NVIDIA a sus objetivos y requisitos.

Recursos

Los últimos recursos de NVIDIA NIM

Próximos pasos

¿Listo para empezar?

Obtenga acceso ilimitado a puntos finales de la API NIM para creación de prototipos, acelerada por DGX Cloud. Cuando esté listo para producción, descargue y autoaloje NIM en su infraestructura preferida (estación de trabajo, centro de datos, perímetro o nube), o acceda a puntos finales NIM alojados por partners de NVIDIA.

Contáctenos

Hable con un especialista en productos de NVIDIA sobre cómo pasar de la fase piloto a la de producción con la seguridad, estabilidad de API y asistencia técnica que ofrece NVIDIA AI Enterprise.

Manténgase al día sobre las noticias de NVIDIA NIM

Reciba las últimas noticias, tecnologías, avances y mucho más, directamente en su bandeja de entrada.

Select Location
Middle East