Secteur public

Traduction pilotée par l'IA pour les enquêtes criminelles

Objectif

LILT accélère la création de contenu multilingue à grande échelle pour les entreprises grâce aux GPU de NVIDIA et à NVIDIA NeMo™.

Client

LILT

Partenaire

AWS

Utilisation

IA générative / LLM

Produits

GPU NVIDIA A100 Tensor Core
GPU NVIDIA T4 Tensor Core
NVIDIA NeMo™

Solution de génération et de traduction de contenu de LILT pour les entreprises

La plateforme d'IA générative de LILT peut traduire rapidement une grande quantité de contenu.

Lorsqu'une agence européenne d'application des lois a eu besoin d'une solution dynamique pour traduire de grands volumes de contenu dans des langues à faible ressources dans des délais serrés, elle s'est tournée vers LILT. La plateforme d'IA générative de LILT, qui s'appuie sur de grands modèles de langage, a permis de traduire plus rapidement et à grande échelle des informations éphémères en tirant parti des GPU de NVIDIA et de NVIDIA NeMo, un framework d'entreprise de bout en bout pour la création, la personnalisation et le déploiement de modèles d'IA générative.

Défis de traduction pour les services d'application des lois

L’agence chargée de l’application des lois recueille de grandes quantités de preuves rédigées dans des langues étrangères faibles en ressources, lesquelles souffrent d'une disponibilité limitée de ressources numériques et de données pour produire une traduction efficace. Malheureusement, les délais fixés pour l’enquête et l’admissibilité des preuves, associés à un pool limité de linguistes disponibles pour la traduction, ajoutent des contraintes supplémentaires et menacent la capacité de l’agence à poursuivre les criminels.

Solution de LILT

La plateforme d'IA générative de LILT, qui se distingue par un workflow polyvalent d'outils "au bureau", a empêché ces problèmes de ressources de limiter l'efficacité de l'agence dans la lutte contre la criminalité. Les non-linguistes travaillent de manière autonome, en utilisant la traduction automatique pour rechercher du contenu de grande valeur dans une grande variété de documents, y compris en envoyant des traductions en masse sur le Cloud par le biais de son API. Les linguistes peuvent alors consacrer leur temps et leurs compétences à la traduction de documents présentés en tant que preuves à l’aide de l’outil de traduction prédictive et adaptative de LILT. Ce workflow a été déployé pour mener à bien des opérations majeures, contribuant à l'arrestation de centaines de criminels et à la saisie de drogues et d’armes illicites.

Image publiée avec l'aimable autorisation de CCC

LILT et NVIDIA sur AWS

En exploitant la plateforme de LILT et les GPU de NVIDIA, l'agence a obtenu un rendement de traduction pouvant atteindre 150 000 mots par minute (performances mesurées dans quatre langues). Le déploiement sur AWS permet une mise à l'échelle nettement plus importante par rapport à ce qui était possible sur site. Les ressources GPU évolutives accroissent facilement le rendement, y compris avec les charges de travail les plus intensives, ce qui signifie qu'aucun utilisateur final ne doit attendre trop longtemps qu'une file d'attente soit traitée et que toutes les missions peuvent être menées à bien avec l'assistance et les ressources adéquates.

Pour atteindre ce résultat, LILT a accéléré l'entraînement des modèles avec des GPU NVIDIA A100 Tensor Core et l'inférence des modèles avec les GPU NVIDIA T4 Tensor Core. En exploitant des modèles développés avec NeMo, la plateforme de LILT peut fournir un débit de caractères jusqu'à 30 fois supérieur en matière de performances d'inférence par rapport aux modèles équivalents exécutés sur des CPU. De plus, la plateforme d'IA de NVIDIA permet à LILT de quintupler la taille de ses modèles avec des améliorations importantes, non seulement en matière de latence, mais également en matière de qualité.

NeMo fait partie intégrante de NVIDIA AI Enterprise, une plateforme de production logicielle sécurisée de bout en bout destinée aux entreprises qui vise à simplifier la conception et le déploiement de logiciels d'IA accélérés.

Les modèles d'apprentissage automatique adaptatif de LILT s'améliorent constamment, spécifiquement lorsque des linguistes révisent le contenu et y apportent des modifications. Ce contenu est alors utilisé en tant que données d'entraînement pour le réglage fin des modèles. Ces améliorations constantes du contexte permettent aux outils dynamiques de LILT de s'adapter au langage courant et de registre familier, en évolution constante, que l'on retrouve sur les réseaux sociaux et dans d'autres sources de contenu essentielles. LILT exploite en outre un workflow multifacettes avec des applications pour linguistes et non linguistes, permettant ainsi à chaque équipe de travailler de manière autonome et de tirer le meilleur parti de ses compétences uniques pour optimiser son efficacité dans les situations critiques.

Découvrez comment d'autres entreprises font appel à LILT pour améliorer leurs propres opérations et l'expérience client.

Image fournie par CCC

  • LILT utilise NVIDIA NeMo pour développer des modèles qui accélèrent l'inférence.
  • NeMo est un framework de bout en bout natif dans le Cloud qui permet de créer, de personnaliser et de déployer des modèles d'IA générative en tout lieu. Il comprend des frameworks d'entraînement et d'inférence, des kits d'outils de guardrailing, des outils de conservation des données et des modèles pré-entraînés, offrant ainsi aux entreprises un moyen facile, rentable et rapide d'adopter l'IA générative.
  • Les GPU NVIDIA A100 Tensor Core offrent une accélération sans précédent à toutes les échelles.
  • Les GPU NVIDIA A100 équipent les Data Centers élastiques les plus performants au monde pour l'IA, l'analyse de données et le calcul intensif (HPC). L'accélération GPU combinée à NVIDIA AI Enterprise, une solution logicielle sécurisée et native dans le Cloud, permet aux entreprises de tirer parti d'une plateforme de bout en bout pour passer efficacement du stade de pilote à la phase de production.
  • Déployée sur AWS, la solution logicielle de LILT peut faire évoluer l'IA de production.
  • AWS et NVIDIA collaborent depuis plus de 13 ans pour fournir continuellement des solutions puissantes, rentables et polyvalentes basées sur GPU pour les clients. Les instances Amazon EC2 alimentées par des GPU de NVIDIA fournissent les performances évolutives nécessaires pour accélérer l'apprentissage automatique dans le cadre de l'entraînement, mais aussi une technologie d'inférence rentable pour l'apprentissage automatique, des stations de travail virtuelles distantes et flexibles ainsi que d'importantes capacités de calcul intensif.

Programme NVIDIA Inception

LILT est membre de NVIDIA Inception, un programme gratuit conçu pour soutenir les startups qui transforment de multiples industries avec des avancées technologiques décisives. En tant que partenaire Inception, LILT a profité de crédits Cloud, d'opportunités marketing, de remises sur le matériel, du capital-risque, des crédits du NVIDIA Deep Learning Institute et de l'assistance technique des experts de NVIDIA.

Qu'est-ce que NVIDIA Inception ?

  • NVIDIA Inception est un programme gratuit qui a été conçu pour aider les startups à évoluer plus rapidement grâce à une technologie de pointe, à des opportunités de connexion avec des investisseurs en capital-risque et à un accès optimal aux dernières ressources techniques de NVIDIA.

Avantages du programme NVIDIA Inception

  • Contrairement aux programmes d'accélération traditionnels, NVIDIA Inception prend en charge les startups tout au long de leur cycle de vie. Nous travaillons en étroite collaboration avec les membres de notre programme pour leur donner accès aux meilleurs outils techniques, aux dernières ressources et à des opportunités de connexion avec des investisseurs.

Rejoignez le réseau mondial de NVIDIA Inception, qui rassemble plus de 15 000 startups technologiques.