LILT acelera la creación de contenido multilingüe para empresas a escala gracias a las GPU NVIDIA y NVIDIA NeMo™.
LILT
AWS
IA generativa/LLM
GPU NVIDIA A100 con núcleo Tensor GPU
NVIDIA T4 con núcleo Tensor
NVIDIA NeMo™
La plataforma de IA generativa de LILT es capaz de traducir una gran cantidad de contenido rápidamente.
Cuando un organismo policial europeo necesitó una solución dinámica para traducir grandes volúmenes de contenido en idiomas con pocos recursos y con plazos limitados, recurrieron a LILT. La plataforma de IA generativa de LILT, respaldada por modelos lingüísticos de gran tamaño, hizo posible una traducción más rápida de información con restricciones de tiempo a escala, aprovechando las GPU NVIDIA y NVIDIA NeMo, un marco empresarial de extremo a extremo para crear, personalizar e implementar modelos de IA generativa.
Las fuerzas del orden recogen un gran volumen de pruebas escritas en idiomas extranjeros con pocos recursos, y disponen de una cantidad limitada de recursos digitales y datos disponibles para realizar una traducción eficiente. Lamentablemente, las limitaciones de tiempo establecidas para la investigación y la admisibilidad de pruebas, junto con un grupo limitado de lingüistas disponibles para la traducción, no hacían más que añadir restricciones y amenazar la capacidad de las fuerzas del orden para procesar a los criminales.
Gracias a su versátil flujo de trabajo con herramientas "de escritorio", la plataforma de IA generativa de LILT ha evitado que estos problemas de recursos limiten la eficacia del organismo para poner freno al crimen. Los no lingüistas pueden trabajar de forma autónoma, utilizando la traducción automática para clasificar una variedad de documentos de contenidos de alto valor, lo que incluye el envío de traducciones masivas a la nube a través de su API. Los lingüistas pueden centrar su tiempo y habilidades en la traducción de documentos probatorios utilizando la herramienta de traducción predictiva y adaptativa de LILT. Este flujo de trabajo ha sido implementado en operaciones importantes, lo que ha contribuido al arresto de cientos de criminales, además de a la confiscación de drogas y armas ilegales.
Imagen cortesía de CCC
Respaldado por LILT y las GPU NVIDIA, el organismo logró tasas de rendimiento de traducción de hasta 150 000 palabras por minuto (medidas en cuatro idiomas distintos). La implementación en AWS permite escalar mucho más allá de lo anteriormente posible de forma local. Los recursos de GPU escalables aumentan fácilmente el rendimiento durante los picos de carga de trabajo máximos, lo que significa que ningún usuario final se queda esperando a que se procese una cola y ninguna misión se queda sin el apoyo y los recursos adecuados.
Para lograr este resultado, LILT aceleró el entrenamiento de modelos con las GPU NVIDIA A100 con núcleo Tensor y la inferencia de modelos con las GPU NVIDIA T4 con núcleo Tensor. Mediante el uso de modelos desarrollados con NeMo, la plataforma de LILT puede ofrecer un aumento del rendimiento de inferencia de caracteres de hasta 30 veces el rendimiento de los modelos equivalentes ejecutados en CPU. Además, la plataforma de IA de NVIDIA permite a LILT escalar el tamaño de su modelo 5 veces con mejoras significativas, no solo en latencia, sino también en calidad.
NeMo se incluye como parte de NVIDIA AI Enterprise, para proporcionar una plataforma de software de extremo a extremo segura lista para producción para empresas dedicadas al desarrollo e implementación de software acelerado por IA.
Los modelos de aprendizaje automático adaptativo de LILT mejoran constantemente, especialmente cuando el contenido es revisado y los lingüistas aportan sus conocimientos. Estos son aprovechados como datos de entrenamiento para el ajuste de modelos. Como resultado de esta mejora continua del contexto, las herramientas dinámicas de LILT están siempre al día con el lenguaje coloquial en constante cambio en las redes sociales y otras fuentes esenciales de contenido. LILT también implementa un flujo de trabajo multifacético con aplicaciones para lingüistas y no lingüistas por igual, lo que permite a cada equipo trabajar de forma autónoma y aprovechar al máximo sus habilidades únicas y lograr así la máxima eficiencia en situaciones con restricciones de tiempo.
Obtén más información sobre cómo otras organizaciones aprovechan LILT para mejorar sus propias operaciones y las experiencias de los clientes.
Imagen cortesía de CCC
LILT es miembro de NVIDIA Inception, un programa gratuito que fomenta el desarrollo de las empresas emergentes que revolucionan sus sectores a través de avances tecnológicos. En su calidad de socio de Inception, LILT aprovecha los créditos en la nube, las oportunidades de marketing, descuentos en hardware, capital de riesgo, los créditos del NVIDIA Deep Learning Institute y la asistencia técnica experta de NVIDIA.
¿Qué es NVIDIA Inception?
Beneficios del programa NVIDIA Inception
Únete a la red global de NVIDIA Inception con más de 15 000 empresas emergentes del sector tecnológico.