Sector público

Traducción de idiomas con IA en investigaciones criminales

Objetivo

LILT acelera la creación de contenido multilingüe para empresas a escala gracias a las GPU NVIDIA y NVIDIA NeMo™.

Cliente

LILT

Partner

AWS

Caso de uso

IA generativa/LLM

Productos

GPU NVIDIA A100 con núcleo Tensor GPU
NVIDIA T4 con núcleo Tensor
NVIDIA NeMo™

Generación y traducción de contenido para empresas de LILT

La plataforma de IA generativa de LILT es capaz de traducir una gran cantidad de contenido rápidamente.

Cuando un organismo policial europeo necesitó una solución dinámica para traducir grandes volúmenes de contenido en idiomas con pocos recursos y con plazos limitados, recurrieron a LILT. La plataforma de IA generativa de LILT, respaldada por modelos lingüísticos de gran tamaño, hizo posible una traducción más rápida de información con restricciones de tiempo a escala, aprovechando las GPU NVIDIA y NVIDIA NeMo, un marco empresarial de extremo a extremo para crear, personalizar e implementar modelos de IA generativa.

Desafíos de traducción para las fuerzas del orden

Las fuerzas del orden recogen un gran volumen de pruebas escritas en idiomas extranjeros con pocos recursos, y disponen de una cantidad limitada de recursos digitales y datos disponibles para realizar una traducción eficiente. Lamentablemente, las limitaciones de tiempo establecidas para la investigación y la admisibilidad de pruebas, junto con un grupo limitado de lingüistas disponibles para la traducción, no hacían más que añadir restricciones‌ y amenazar la capacidad de las fuerzas del orden para procesar a los criminales.

La solución de LILT

Gracias a su versátil flujo de trabajo con herramientas "de escritorio", la plataforma de IA generativa de LILT ha evitado que estos problemas de recursos limiten la eficacia del organismo para poner freno al crimen. Los no lingüistas pueden trabajar de forma autónoma, utilizando la traducción automática para clasificar una variedad de documentos de contenidos de alto valor, lo que incluye el envío de traducciones masivas a la nube a través de su API. Los lingüistas pueden centrar su tiempo y habilidades en la traducción de documentos probatorios utilizando la herramienta de traducción predictiva y adaptativa de LILT. Este flujo de trabajo ha sido implementado en operaciones importantes, lo que ha contribuido al arresto de cientos de criminales, además de a la confiscación de drogas y armas ilegales.

Imagen cortesía de CCC

LILT y NVIDIA en AWS

Respaldado por LILT y las GPU NVIDIA, el organismo logró tasas de rendimiento de traducción de hasta 150 000 palabras por minuto (medidas en cuatro idiomas distintos). La implementación en AWS permite escalar mucho más allá de lo anteriormente posible de forma local. Los recursos de GPU escalables aumentan fácilmente el rendimiento durante los picos de carga de trabajo máximos, lo que significa que ningún usuario final se queda esperando a que se procese una cola y ninguna misión se queda sin el apoyo y los recursos adecuados.

Para lograr este resultado, LILT aceleró el entrenamiento de modelos con las GPU NVIDIA A100 con núcleo Tensor y la inferencia de modelos con las GPU NVIDIA T4 con núcleo Tensor. Mediante el uso de modelos desarrollados con NeMo, la plataforma de LILT puede ofrecer un aumento del rendimiento de inferencia de caracteres de hasta 30 veces el rendimiento de los modelos equivalentes ejecutados en CPU. Además, la plataforma de IA de NVIDIA permite a LILT escalar el tamaño de su modelo 5 veces con mejoras significativas, no solo en latencia, sino también en calidad.

NeMo se incluye como parte de NVIDIA AI Enterprise, para proporcionar una plataforma de software de extremo a extremo segura lista para producción para empresas dedicadas al desarrollo e implementación de software acelerado por IA.

Los modelos de aprendizaje automático adaptativo de LILT mejoran constantemente, especialmente cuando el contenido es revisado y los lingüistas aportan sus conocimientos. Estos son aprovechados como datos de entrenamiento para el ajuste de modelos. Como resultado de esta mejora continua del contexto, las herramientas dinámicas de LILT están siempre al día con el lenguaje coloquial en constante cambio en las redes sociales y otras fuentes esenciales de contenido. LILT también implementa un flujo de trabajo multifacético con aplicaciones para lingüistas y no lingüistas por igual, lo que permite a cada equipo trabajar de forma autónoma y aprovechar al máximo sus habilidades únicas y lograr así la máxima eficiencia en situaciones con restricciones de tiempo.

Obtén más información sobre cómo otras organizaciones aprovechan LILT para mejorar sus propias operaciones y las experiencias de los clientes.

Imagen cortesía de CCC

  • LILT utiliza NVIDIA NeMo para desarrollar modelos que potencian la inferencia.
  • NeMo es un marco nativo de la nube, de extremo a extremo, para la creación, personalización e implementación de modelos de IA generativa en cualquier lugar. Incluye marcos de entrenamiento e inferencia, kits de herramientas de seguridad, herramientas de tratamiento de información y modelos preentrenados, lo que ofrece a las empresas una forma fácil, rentable y rápida de adoptar la IA generativa.
  • Las GPU NVIDIA A100 con núcleo Tensor ofrecen una aceleración sin precedentes a cualquier escala.
  • Las GPU NVIDIA A100 potencian los centros de datos elásticos de mayor rendimiento del mundo para IA, análisis de datos e informática de alto rendimiento (HPC). La aceleración por GPU, combinada con NVIDIA AI Enterprise, una solución de software segura y nativa en la nube, significa que las organizaciones pueden sacar partido a una plataforma de extremo a extremo y pasar de proyectos piloto a la producción.
  • Implementado en AWS, LILT es capaz de escalar la IA de producción.
  • AWS y NVIDIA han colaborado durante más de 13 años para ofrecer continuamente soluciones basadas en GPU potentes, rentables y flexibles para los clientes. Las instancias Amazon EC2 impulsadas por GPU NVIDIA ofrecen el rendimiento escalable necesario para el rápido entrenamiento de aprendizaje automático, la inferencia de aprendizaje automático rentable, estaciones de trabajo virtuales remotas flexibles y cálculos HPC potentes.

Programa Inception de NVIDIA

LILT es miembro de NVIDIA Inception, un programa gratuito que fomenta el desarrollo de las empresas emergentes que revolucionan sus sectores a través de avances tecnológicos. En su calidad de socio de Inception, LILT aprovecha los créditos en la nube, las oportunidades de marketing, descuentos en hardware, capital de riesgo, los créditos del NVIDIA Deep Learning Institute y la asistencia técnica experta de NVIDIA.

¿Qué es NVIDIA Inception?

  • NVIDIA Inception es un programa gratuito diseñado para ayudar a las empresas emergentes a evolucionar más rápido a través de tecnologías de vanguardia, oportunidades para conectar con capitalistas de riesgo y el acceso a los últimos recursos técnicos de NVIDIA.

Beneficios del programa NVIDIA Inception

  • A diferencia de los aceleradores tradicionales, NVIDIA Inception es compatible con todas las etapas del ciclo de vida de una empresa emergente. Trabajamos en estrecha colaboración con los miembros para proporcionar las mejores herramientas técnicas y los recursos más novedosos, además de oportunidades para conectar con inversores.

Únete a la red global de NVIDIA Inception con más de 15 000 empresas emergentes del sector tecnológico.