LILT accélère la création de contenu multilingue à grande échelle pour les entreprises grâce aux GPU de NVIDIA et à NVIDIA NeMo™.
LILT
AWS
IA générative/LLM
GPU NVIDIA A100 Tensor Core
GPU NVIDIA T4 Tensor Core
NVIDIA NeMo™
La plateforme d'IA générative de LILT peut traduire rapidement une grande quantité de contenu.
Lorsqu'une agence européenne d'application des lois a eu besoin d'une solution dynamique pour traduire de grands volumes de contenu dans des langues à faible ressources dans des délais serrés, elle s'est tournée vers LILT. La plateforme d'IA générative de LILT, qui s'appuie sur de grands modèles de langage, a permis de traduire plus rapidement et à grande échelle des informations éphémères en tirant parti des GPU de NVIDIA et de NVIDIA NeMo, un framework d'entreprise de bout en bout pour la création, la personnalisation et le déploiement de modèles d'IA générative.
L’agence chargée de l’application des lois recueille de grandes quantités de preuves rédigées dans des langues étrangères faibles en ressources, lesquelles souffrent d'une disponibilité limitée de ressources numériques et de données pour produire une traduction efficace. Malheureusement, les délais fixés pour l’enquête et l’admissibilité des preuves, associés à un pool limité de linguistes disponibles pour la traduction, ajoutent des contraintes supplémentaires et menacent la capacité de l’agence à poursuivre les criminels.
La plateforme d'IA générative de LILT, qui se distingue par un workflow polyvalent d'outils "au bureau", a empêché ces problèmes de ressources de limiter l'efficacité de l'agence dans la lutte contre la criminalité. Les non-linguistes travaillent de manière autonome, en utilisant la traduction automatique pour rechercher du contenu de grande valeur dans une grande variété de documents, y compris en envoyant des traductions en masse sur le Cloud par le biais de son API. Les linguistes peuvent alors consacrer leur temps et leurs compétences à la traduction de documents présentés en tant que preuves à l’aide de l’outil de traduction prédictive et adaptative de LILT. Ce workflow a été déployé pour mener à bien des opérations majeures, contribuant à l'arrestation de centaines de criminels et à la saisie de drogues et d’armes illicites.
Image publiée avec l'aimable autorisation de CCC
En exploitant la plateforme de LILT et les GPU de NVIDIA, l'agence a obtenu un rendement de traduction pouvant atteindre 150 000 mots par minute (performances mesurées dans quatre langues). Le déploiement sur AWS permet une mise à l'échelle nettement plus importante par rapport à ce qui était possible sur site. Les ressources GPU évolutives accroissent facilement le rendement, y compris avec les charges de travail les plus intensives, ce qui signifie qu'aucun utilisateur final ne doit attendre trop longtemps qu'une file d'attente soit traitée et que toutes les missions peuvent être menées à bien avec l'assistance et les ressources adéquates.
Pour atteindre ce résultat, LILT a accéléré l'entraînement des modèles avec des GPU NVIDIA A100 Tensor Core et l'inférence des modèles avec les GPU NVIDIA T4 Tensor Core. En exploitant des modèles développés avec NeMo, la plateforme de LILT peut fournir un débit de caractères jusqu'à 30 fois supérieur en matière de performances d'inférence par rapport aux modèles équivalents exécutés sur des CPU. De plus, la plateforme d'IA de NVIDIA permet à LILT de quintupler la taille de ses modèles avec des améliorations importantes, non seulement en matière de latence, mais également en matière de qualité.
NeMo fait partie intégrante de NVIDIA AI Enterprise, une plateforme de production logicielle sécurisée de bout en bout destinée aux entreprises qui vise à simplifier la conception et le déploiement de logiciels d'IA accélérés.
Les modèles d'apprentissage automatique adaptatif de LILT s'améliorent constamment, spécifiquement lorsque des linguistes révisent le contenu et y apportent des modifications. Ce contenu est alors utilisé en tant que données d'entraînement pour le réglage fin des modèles. Ces améliorations constantes du contexte permettent aux outils dynamiques de LILT de s'adapter au langage courant et de registre familier, en évolution constante, que l'on retrouve sur les réseaux sociaux et dans d'autres sources de contenu essentielles. LILT exploite en outre un workflow multifacettes avec des applications pour linguistes et non linguistes, permettant ainsi à chaque équipe de travailler de manière autonome et de tirer le meilleur parti de ses compétences uniques pour optimiser son efficacité dans les situations critiques.
Découvrez comment d'autres entreprises font appel à LILT pour améliorer leurs propres opérations et l'expérience client.
Image fournie par CCC
LILT est membre de NVIDIA Inception, un programme gratuit conçu pour soutenir les startups qui transforment de multiples industries avec des avancées technologiques décisives. En tant que partenaire Inception, LILT a profité de crédits Cloud, d'opportunités marketing, de remises sur le matériel, du capital-risque, des crédits du NVIDIA Deep Learning Institute et de l'assistance technique des experts de NVIDIA.
Qu'est-ce que NVIDIA Inception ?
Avantages du programme NVIDIA Inception
Rejoignez le réseau mondial de NVIDIA Inception, qui rassemble plus de 15 000 startups technologiques.