Inferencia de IA

NVIDIA Dynamo

Escale y sirva IA generativa con rapidez.

Descripción

Inferencia distribuida de baja latencia
para IA generativa

NVIDIA Dynamo es un marco de inferencia modular de código abierto para servir modelos de IA generativa en entornos distribuidos. Permite un escalado perfecto de cargas de trabajo de inferencia en grandes flotas de GPU con programación dinámica de recursos, enrutamiento inteligente de solicitudes, gestión de memoria optimizada y transferencia de datos acelerada.

Al servir el modelo de razonamiento de código abierto DeepSeek-R1 671B en NVIDIA GB200 NVL72, NVIDIA Dynamo aumentó el número de solicitudes servidas hasta en 30 veces, lo que la convierte en la solución ideal para fábricas de IA que buscan ejecutarse al menor coste posible para maximizar la generación de ingresos de tokens.

NVIDIA Dynamo es compatible con todos los principales backends de inferencia de IA y cuenta con optimizaciones específicas de modelos lingüísticos de gran tamaño (LLM), como el servicio desagregado, la aceleración y el escalado de modelos de razonamiento de IA al coste más bajo y con la mayor eficiencia. Recibirá soporte como parte de NVIDIA AI Enterprise en una futura versión.

¿Qué es la inferencia distribuida?

La inferencia distribuida es el proceso de ejecución de inferencia de modelos de IA en varios dispositivos o nodos de computación para maximizar el rendimiento al paralelizar las computaciones. 

Este enfoque permite un escalado eficiente para aplicaciones de IA a gran escala, como la IA generativa, al distribuir cargas de trabajo en GPU o infraestructura de la nube. La inferencia distribuida mejora el rendimiento general y la utilización de recursos al permitir a los usuarios optimizar la latencia y el rendimiento para los requisitos únicos de cada carga de trabajo.

Características

Explore las características de NVIDIA Dynamo

Icono de servicio desagregado

Servicio desagregado

Separa las fases de contexto (prerellenado) y de generación (descodificación) de los LLM en distintas GPU, lo que permite el paralelismo de modelos personalizado y la asignación de GPU independientes para aumentar las solicitudes servidas por GPU.

Icono de planificador de GPU

Planificador de GPU

Supervisa la capacidad de la GPU en entornos de inferencia distribuida y asigna dinámicamente trabajadores de GPU en todas las fases de contexto y generación para resolver cuellos de botella y optimizar el rendimiento.

Enrutador inteligente

Enrutador inteligente

Enruta el tráfico de inferencia de forma eficiente y minimiza el costoso recálculo de solicitudes repetidas o solapadas para preservar los recursos de computación y garantizar una distribución de cargas equilibrada en grandes flotas de GPU.

Icono de archivo

NIXL Biblioteca de comunicación de baja latencia

Acelera el movimiento de datos en entornos de inferencia distribuida al tiempo que simplifica las complejidades de transferencia en diverso hardware, incluidas GPU, CPU, redes y almacenamiento.

Ventajas

Las ventajas de NVIDIA Dynamo

Icono de escalabilidad

Escale a la perfección desde una GPU a miles de GPU

Agilice y automatice la configuración de clústeres de GPU con herramientas prediseñadas y fáciles de implementar y permita el autoescalado dinámico con métricas específicas de LLM en tiempo real, evitando el sobreaprovisionamiento o el aprovisionamiento insuficiente de recursos de GPU.

Icono de servicio

Aumente la capacidad de servicio de inferencia al tiempo que reduce los costes

Aproveche la inferencia de LLM avanzada que sirve optimizaciones, como el servicio desagregado, para aumentar el número de solicitudes de inferencia servidas sin poner en peligro la experiencia del usuario.

Icono de casilla de verificación

Prepare su infraestructura de IA para el futuro y evite costosas migraciones

El diseño abierto y modular le permite seleccionar fácilmente los componentes que sirven inferencia y que se adaptan a sus necesidades únicas, garantizándole la compatibilidad con su pila de IA existente y evitando costosos proyectos de migración.

Icono de proceso iterativo

Acelere el tiempo para implementar nuevos modelos de IA en producción

El soporte de NVIDIA Dynamo para todos los principales marcos, incluidos TensorRT-LLM, vLLM, SGLang, PyTorch y muchos más, garantiza su capacidad para implementar rápidamente nuevos modelos de IA generativa, independientemente de su backend.

Acelere la inferencia distribuida

NVIDIA Dynamo es totalmente de código abierto, lo que le ofrece transparencia y flexibilidad completas. Implemente NVIDIA Dynamo, contribuya a su crecimiento e intégrelo a la perfección en su pila existente.

 ¡Échele un vistazo en GitHub y únase a la comunidad!

Desarrollo

Para personas que buscan obtener acceso al código de código abierto del servidor de inferencia Triton para el desarrollo.

Desarrollo

Para personas que buscan acceder a contenedores del servidor de inferencia Triton gratuitos para el desarrollo.

Experiencia

Acceda a la infraestructura alojada por NVIDIA y a laboratorios prácticos guiados que incluyen instrucciones paso a paso y ejemplos, disponibles de forma gratuita en NVIDIA LaunchPad.

Implemente

Consiga una licencia gratuita para probar NVIDIA AI Enterprise en producción durante 90 días en su actual infraestructura.  

Casos de uso

Implementación de IA con NVIDIA Dynamo

Descubra cómo puede impulsar la innovación con NVIDIA Dynamo.

Servir modelos de razonamiento

Los modelos de razonamiento generan más tokens para resolver problemas complejos, lo que aumenta los costes de inferencia. NVIDIA Dynamo optimiza estos modelos con características como el servicio desagregado. Este enfoque separa las fases de computación de prerellenado y descodificación en distintas GPU, lo que permite a los equipos de inferencia de IA optimizar cada fase de forma independiente. El resultado es una mejor utilización de recursos, más consultas servidas por GPU y menores costes de inferencia.

Servicio de modelo de razonamiento de IA

Testimonios de clientes

Vea lo que dicen los líderes del sector sobre NVIDIA Dynamo

Cohere

Cohere

"El escalado de modelos de IA avanzados requiere una sofisticada programación con varias GPU, una coordinación impecable y bibliotecas de comunicación de baja latencia que transfieran contextos de razonamiento a la perfección en toda la memoria y el almacenamiento. Esperamos que Dynamo nos ayude a ofrecer una experiencia de usuario de primer nivel a nuestros clientes empresariales".  Saurabh Baji, vicepresidente sénior de ingeniería de Cohere

Perplexity

Perplexity AI

"Al manejar cientos de millones de solicitudes mensualmente, nos basamos en las GPU y el software de inferencia de NVIDIA para ofrecer el rendimiento, la fiabilidad y la escalada que exigen nuestras empresas y usuarios. "Esperamos aprovechar Dynamo con sus capacidades de servicio distribuido mejoradas para impulsar aún más eficiencias de servicio de inferencia y satisfacer las demandas de computación de nuevos modelos de razonamiento de IA". Denis Yarats, director de tecnología de Perplexity AI.

together.ai

Together AI

"El escalado de modelos de razonamiento de forma rentable requiere nuevas técnicas de inferencia avanzadas, incluido el servicio desagregado y el enrutamiento consciente del contexto. Together AI ofrece un rendimiento líder en el sector utilizando nuestro motor de inferencia patentado. La apertura y la modularidad de Dynamo nos permitirán conectar a la perfección sus componentes a nuestro motor para servir más solicitudes al tiempo que optimizamos la utilización de recursos, lo que maximiza nuestra inversión en computación acelerada. " Ce Zhang, director de tecnología de Together AI.

Cohere

Cohere

"El escalado de modelos de IA avanzados requiere una sofisticada programación con varias GPU, una coordinación impecable y bibliotecas de comunicación de baja latencia que transfieran contextos de razonamiento a la perfección en toda la memoria y el almacenamiento. Esperamos que NVIDIA Dynamo nos ayude a ofrecer una experiencia de usuario de primer nivel a nuestros clientes empresariales".  Saurabh Baji, vicepresidente sénior de ingeniería de Cohere

Perplexity

Perplexity AI

"Al manejar cientos de millones de solicitudes mensualmente, nos basamos en las GPU y el software de inferencia de NVIDIA para ofrecer el rendimiento, la fiabilidad y la escalada que exigen nuestras empresas y usuarios. "Esperamos aprovechar NVIDIA Dynamo con sus capacidades de servicio distribuido mejoradas para impulsar aún más eficiencias de servicio de inferencia y satisfacer las demandas de computación de nuevos modelos de razonamiento de IA". Denis Yarats, director de tecnología de Perplexity AI.

together.ai

Together AI

"El escalado de modelos de razonamiento de forma rentable requiere nuevas técnicas de inferencia avanzadas, incluido el servicio desagregado y el enrutamiento consciente del contexto. Together AI ofrece un rendimiento líder en el sector utilizando nuestro motor de inferencia patentado. La apertura y la modularidad de NVIDIA Dynamo nos permitirán conectar a la perfección sus componentes a nuestro motor para servir más solicitudes al tiempo que optimizamos la utilización de recursos, lo que maximiza nuestra inversión en computación acelerada".  Ce Zhang, director de tecnología de Together AI.

Usuarios

Principales usuarios de todos los sectores

Amazon
American Express
Azure AI Translator
Encord
GE Healthcare
Infosys
Intelligent Voice
NIO
Siemens Energy
Trax Retail
USPS
Yahoo Japan

Recursos

Lo último en inferencia de NVIDIA

Recibe las últimas noticias

Recibe las últimas noticias

Más información sobre las últimas actualizaciones y anuncios de inferencia para el servidor de inferencia NVIDIA Dynamo.

Explorar blogs técnicos

Explorar blogs técnicos

Lea las instrucciones técnicas sobre cómo empezar con la inferencia.

Información en profundidad

Información en profundidad

Obtenga consejos y prácticas recomendadas para implementar, ejecutar y escalar modelos de IA para inferencia para IA generativa, LLM, sistemas de recomendación, visión por ordenador y mucho más.

Próximos pasos

¿Todo listo para empezar?

¡Descárguelo en GitHub y únase a la comunidad!

decorativo

Para desarrolladores

Explore todo lo necesario para comenzar a desarrollar con NVIDIA Dynamo, incluyendo la última documentación, tutoriales, blogs técnicos y mucho más.

decorativo

Ponte en contacto con nosotros

Hable con un especialista en productos de NVIDIA sobre cómo pasar de la fase piloto a la de producción con la seguridad, la estabilidad de las API y el soporte de NVIDIA AI Enterprise.

Leer la nota de prensa | Leer el blog técnico

Recibe las últimas noticias

Recibe las últimas noticias

Más información sobre las últimas actualizaciones y anuncios de inferencia para el servidor de inferencia Dynamo.

Explorar blogs técnicos

Explorar blogs técnicos

Lea las instrucciones técnicas sobre cómo empezar con la inferencia.

Información en profundidad

Información en profundidad

Obtenga consejos y prácticas recomendadas para implementar, ejecutar y escalar modelos de IA para inferencia para IA generativa, LLM, sistemas de recomendación, visión por ordenador y mucho más.

Select Location
Middle East