Inference

Servidor de Inferencia NVIDIA Triton

Implemente, ejecute y escale IA para cualquier aplicación en cualquier plataforma.

Descripción General

Inferencia para Cada Carga de Trabajo de IA

Ejecute inferencias en modelos de machine learning o deep learning entrenados desde cualquier framework en cualquier procesador (GPU, CPU u otro) con el Servidor de Inferencia NVIDIA Triton™. El Servidor de Inferencia Triton es un software de código abierto que estandariza la implementación y ejecución de modelos de IA en todas las cargas de trabajo. Forma parte de la plataforma de IA de NVIDIA y está disponible con NVIDIA AI Enterprise.

Implementación, Optimización y Evaluación Comparativa de LLM

Obtenga instrucciones paso a paso sobre cómo servir grandes modelos de lenguaje (LLM) de manera eficiente utilizando el Servidor de Inferencia Triton.

Funciones

Explore las Funciones y Herramientas del Servidor de Inferencia NVIDIA Triton

Supports All Training and Inference Frameworks

Inferencia de Grandes Modelos de Lenguaje

Triton ofrece baja latencia y alto rendimiento para la inferencia de grandes modelos de lenguaje (LLM). Es compatible con TensorRT-LLM, una biblioteca de código abierto para definir, optimizar y ejecutar LLM para la inferencia en producción. 

High-Performance Inference on Any Platform

Conjuntos de Modelos

Los Conjuntos de Modelos Triton le permite ejecutar cargas de trabajo de IA con varios modelos, pipelines y pasos de preprocesamiento y posprocesamiento. Permite la ejecución de diferentes partes del conjunto en la CPU o la GPU, y admite múltiples frameworks dentro del conjunto.

Open Source and Designed for DevOps and MLOps

NVIDIA PyTriton

PyTriton permite a los desarrolladores de Python poner en marcha Triton con una sola línea de código y usarlo para servir modelos, funciones de procesamiento simples o pipelines de inferencia completas para acelerar la creación de prototipos y las pruebas. 

Enterprise-Grade Security and API Stability

Analizador de Modelos NVIDIA Triton

El Analizador de Modelo reduce el tiempo necesario para encontrar la configuración óptima de implementación del modelo, como el tamaño del lote, la precisión y las instancias de ejecución simultáneas. Ayuda a seleccionar la configuración óptima para cumplir con los requisitos de latencia, rendimiento y memoria de las aplicaciones. 

Beneficios

Las Ventajas del Servidor de Inferencia Triton

Supports All Training and Inference Frameworks

Soporta Todos los Frameworks de Entrenamiento e Inferencia

Implemente modelos de IA en cualquier framework principal con Servidor de Inferencia Triton, incluidos TensorFlow, PyTorch, Python, ONNX, NVIDIA® TensorRT™, RAPIDS™ cuML, XGBoost, scikit-learn RandomForest, OpenVINO, C++ personalizado y más.

High-Performance Inference on Any Platform

Inferencia de Alto Rendimiento en Cualquier Plataforma

Maximice el rendimiento y la utilización con el procesamiento por lotes dinámico, la ejecución simultánea, la configuración óptima y la transmisión de audio y vídeo. El Servidor de Inferencia Triton es compatible con todas las GPU de NVIDIA, CPU x86 y Arm, y AWS Inferentia. 

Open Source and Designed for DevOps and MLOps

Código Abierto y Diseñado para DevOps y MLOps

Integre el Servidor de Inferencia Triton en soluciones de DevOps y MLOps, como Kubernetes para el escalado y Prometheus para la supervisión. También se puede utilizar en todas las principales plataformas de IA y MLOps en la nube y en las instalaciones  . 

Enterprise-Grade Security and API Stability

Seguridad, Capacidad de Gestión y Estabilidad de API de Nivel Empresarial

NVIDIA AI Enterprise, incluido NVIDIA Servidor de Inferencia Triton, es una plataforma de software de IA segura y lista para la producción diseñada para acelerar el tiempo de generación de valor con soporte, seguridad y estabilidad de API. 

Opciones de Inicio

Primeros Pasos con NVIDIA Triton

Utilice las herramientas y tecnologías adecuadas para implementar, ejecutar y escalar la IA para cualquier aplicación en cualquier plataforma.

Desarrolla

Para personas que buscan obtener acceso al código fuente abierto de Servidor de Inferencia Triton para el desarrollo.

Desarrolla

Para personas que buscan acceder a contenedores gratuitos de Servidor de Inferencia Triton para el desarrollo.

Experiencia

Accede a la infraestructura alojada en NVIDIA y a los laboratorios prácticos guiados que incluyen instrucciones paso a paso y ejemplos, disponibles de forma gratuita en NVIDIA LaunchPad.

Desplega

Obtén una licencia gratuita para probar NVIDIA AI Enterprise en producción durante 90 días con tu infraestructura existente.  

Casos de Uso

Cómo Se Utiliza Triton

Descubra cómo los líderes del sector están impulsando la innovación con Servidor de Inferencia Triton.

Unificando Servidores de Inferencia

El Servidor de Inferencia Triton permite a las organizaciones consolidar sus servidores de inferencia específicos del framework en una única plataforma unificada. En lugar de implementar y administrar servidores separados para cada framework de IA, actúa como un servidor único y unificado, lo que reduce los costos de servicio de inferencia. El Servidor de Inferencia Triton es compatible con todos los principales frameworks de IA, incluidos PyTorch, TensorFlow, TensorRT-LLM, VLLM, TensorRT, ONNX y OpenVINO. 

PENDING

Historias de Clientes

Descubra Cómo los Líderes del Sector Están Mejorando la Implementación de Modelos con Triton

T-Mobile Customer Story
Snapchat

Mejorar la Compra de Ropa con IA

Descubre cómo Snapchat mejoró la experiencia de compra de ropa y el reconocimiento óptico de caracteres con emojis con Triton para escalar, reducir costos y acelerar el tiempo de producción. 

RingCentral Customer Story
Docusign

Aceleración de la Gestión de Acuerdos con la Plataforma de Inferencia de NVIDIA

Explore cómo Docusign está utilizando Triton y Azure para desbloquear la información de los contratos, transformar los datos de los acuerdos en información y aumentar la productividad.

Tarteel.ai Customer Story
Oracle Cloud

NVIDIA Triton Acelera la Inferencia en Oracle Cloud

Descubre cómo los servicios de visión artificial y ciencia de datos de Oracle Cloud Infrastructure mejoran la velocidad de las predicciones de IA con NVIDIA Servidor de Inferencia Triton.

Adoptantes

Principales Adoptantes en Todas las Industrias

Amazon
American Express
Azure AI Translator
Encord
GE Healthcare
InfoSys
Intelligent Voice
Nio
Siemens Energy
Trax Retail
USPS
Yahoo Japan

Empieze con NVIDIA Tritón

Utilice las herramientas adecuadas para implementar, ejecutar y escalar la IA para cualquier aplicación en cualquier plataforma.

Comience a Desarrollar con Código o Contenedores

Para las personas que buscan acceder al código fuente abierto y a los contenedores de desarrollo de Triton, existen dos opciones para comenzar de forma gratuita:

Utilice Código de Fuente Abierta
Acceda al software de código abierto en GitHub con ejemplos de un extremo a otro.

Descarga un Contenedor
Acceda a contenedores del Servidor de Inferencia Triton basados ​​en Linux para x86 y Arm® en NVIDIA NGC™.

Pruebe Antes de Comprar

Para las empresas que quieran probar Triton antes de comprar NVIDIA AI Enterprise para producción, existen dos opciones para comenzar de forma gratuita:

Sin Infraestructura
Para aquellos que no cuentan con una infraestructura existente, NVIDIA ofrece laboratorios prácticos gratuitos a través de NVIDIA LaunchPad.

Con Infraestructura
Para aquellos con infraestructura existente, NVIDIA ofrece una licencia de evaluación gratuita para probar NVIDIA AI Enterprise durante 90 días.

Recursos

Lo Último en Recursos de NVIDIA Triton

Cinco Razones Principales por las que Triton Está Simplificando la Inferencia

El Servidor de Inferencia NVIDIA Triton simplifica la implementación de modelos de IA a escala en producción, lo que permite a los equipos implementar modelos de IA entrenados desde cualquier framework desde el almacenamiento local o la plataforma en la nube en cualquier infraestructura basada en GPU o CPU.

Implemente el Pipeline de Stable Diffusion con Triton

Este video muestra la implementación del pipeline Stable Diffusion disponible a través de la biblioteca de difusores HuggingFace. Usamos el Servidor de Inferencia Triton para implementar y ejecutar el pipeline.

Primeros Pasos con el Servidor de Inferencia NVIDIA Triton

El Servidor de Inferencia Triton es una solución de inferencia de código abierto que estandariza la implementación de modelos y permite una IA rápida y escalable en producción. Debido a sus muchas características, una pregunta natural es: ¿por dónde empiezo? Mire para descubrirlo.

Próximos Passos

¿Listo para Empezar?

Utilice las herramientas y tecnologías adecuadas para implementar, ejecutar y escalar la IA para cualquier aplicación en cualquier plataforma.

decorative

Para Desarrolladores

Explora todo lo que necesitas para empezar a desarrollar con NVIDIA Triton, incluida la documentación más reciente, tutoriales, blogs técnicos y mucho más.

decorative

Póngase en Contacto con Nosotros

Habla con un especialista en productos de NVIDIA sobre cómo pasar de piloto a producción con la seguridad, la estabilidad de la API y el soporte de NVIDIA AI Enterprise.

Select Location
Middle East