Inferencia

Servidor de inferencia NVIDIA Triton

Implemente, ejecute y escale la IA para cualquier aplicación en cualquier plataforma.

Inferencia para todas las cargas de trabajo de IA

Ejecute la inferencia en modelos de aprendizaje automático o deep learning entrenados desde cualquier entorno en cualquier procesador (GPU, CPU u otro) con el servidor de inferencia NVIDIA Triton™. Como parte de la plataforma de IA de NVIDIA y disponible con NVIDIA AI Enterprise, el servidor de inferencia Triton es un software de código abierto que estandariza la implementación y ejecución de modelos de IA en todas las cargas de trabajo.

Implementación, optimización y evaluación comparativa de LLM

Obtenga instrucciones paso a paso sobre cómo ofrecer modelos lingüísticos de gran tamaño de forma eficiente con el servidor de inferencia Triton.

Ventajas del servidor de inferencia Triton

Supports All Training and Inference Frameworks

Compatible con todos los entornos de entrenamiento e inferencia

Implemente modelos de IA en cualquier entorno principal con el servidor de inferencia Triton, incluidos TensorFlow, PyTorch, Python, ONNX, NVIDIA® TensorRT™, RAPIDS™ cuML, XGBoost, Scikit-learn RandomForest, OpenVINO y C++ personalizado, entre otros.

High-Performance Inference on Any Platform

Inferencia de alto rendimiento en cualquier plataforma

Maximice el rendimiento y el uso con el procesamiento por lotes dinámico, la ejecución simultánea, la configuración óptima y la transmisión de audio y vídeo. El servidor de inferencia Triton es compatible con todas las GPU NVIDIA, CPU x86 y Arm, así como con AWS Inferentia.

Open Source and Designed for DevOps and MLOps

Código abierto y diseñado para DevOps y MLOps

Integre el servidor de inferencia Triton en soluciones DevOps y MLOps, como Kubernetes para escalar y Prometheus para supervisar. También se puede utilizar en las principales plataformas de IA y MLOps, tanto en la nube como en las instalaciones.

Enterprise-Grade Security and API Stability

Seguridad de nivel empresarial, administración y estabilidad de la API

NVIDIA AI Enterprise, que incluye el servidor de inferencia NVIDIA Triton, es una plataforma de software de IA segura y preparada para la producción. Está diseñada para acelerar el tiempo de obtención de valor con asistencia, seguridad y estabilidad de la API.

Explore las funciones y herramientas del servidor de inferencia NVIDIA Triton

Supports All Training and Inference Frameworks

Inferencia del modelo lingüístico de gran tamaño

Triton ofrece baja latencia y alto rendimiento para la inferencia de modelos lingüísticos de gran tamaño. Es compatible con TensorRT-LLM, una biblioteca de código abierto para definir, optimizar y ejecutar LLM para la inferencia en producción.

High-Performance Inference on Any Platform

Conjuntos de modelos

Los Conjuntos de modelos Triton te permiten ejecutar cargas de trabajo de IA con varios modelos, canalizaciones y pasos de preprocesamiento y posprocesamiento. Además, permite la ejecución de diferentes partes del conjunto en CPU o GPU y es compatible con varios entornos dentro del conjunto.

Open Source and Designed for DevOps and MLOps

NVIDIA PyTriton

PyTriton permite a los desarrolladores de Python incluir Triton con una sola línea de código y utilizarla para ofrecer modelos, funciones de procesamiento sencillas o canalizaciones de inferencia completas para acelerar la creación de prototipos y las pruebas.

Enterprise-Grade Security and API Stability

Analizador de modelos NVIDIA Triton

El Analizador de modelos reduce el tiempo necesario para buscar la configuración de implementación de modelos óptima, como el tamaño del lote, la precisión y las instancias de ejecución simultánea. Ayuda a seleccionar la configuración óptima para satisfacer los requisitos de latencia, rendimiento y memoria de la aplicación.

Principales clientes en todos los sectores

Amazon
American Express
Azure AI Translator
Encord
GE Healthcare
InfoSys
Intelligent Voice
Nio
Siemens Energy
Trax Retail
USPS
Yahoo Japan

Primeros pasos con NVIDIA Triton

Utilice las herramientas adecuadas para implementar, ejecutar y escalar la IA en cualquier aplicación y plataforma.

Empiece a desarrollar con código o contenedores

Las personas que deseen acceder al código abierto y los contenedores de Triton para el desarrollo tienen dos opciones para empezar de forma gratuita:

Usar código abierto
Acceda al software de código abierto en GitHub con ejemplos integrales.

Descargar un contenedor
Acceda a los contenedores del servidor de inferencia Triton basados en Linux para x86 y Arm® en NVIDIA NGC™.

Probar antes de comprar

Las empresas que deseen probar Triton antes de comprar NVIDIA AI Enterprise para la producción disponen de dos opciones para empezar de forma gratuita:

Sin infraestructura
Para aquellos que no disponen de infraestructura, NVIDIA ofrece laboratorios prácticos gratuitos a través de NVIDIA LaunchPad.

Con infraestructura
Para aquellos que disponen de infraestructura, NVIDIA ofrece una licencia de evaluación gratuita para probar NVIDIA AI Enterprise durante 90 días.

Recursos

Las 5 razones principales por las que Triton simplifica la inferencia

El servidor de inferencia NVIDIA Triton simplifica la implementación de modelos de IA a escala en producción, lo que permite a los equipos implementar modelos de IA entrenados desde cualquier entorno de trabajo del almacenamiento local o la plataforma en la nube en cualquier infraestructura basada en GPU o CPU. 

Implemente la canalización de Stable Diffusion de HuggingFace con Triton

Este vídeo muestra la implementación de la canalización de Stable Diffusion disponible a través de la biblioteca de difusores HuggingFace. Utilizamos el servidor de inferencia Triton para implementar y ejecutar la canalización.

Primeros pasos con el servidor de inferencia NVIDIA Triton

El servidor de inferencia Triton es una solución de inferencia de código abierto que estandariza la implementación de modelos y permite una IA rápida y escalable en producción. Dado que tiene muchas funciones, es normal preguntarse por dónde empezar. Para descubrirlo, tendrá que ver el vídeo.

Select Location
Middle East