Pubblica amministrazione

Traduzione basata su IA nelle indagini penali

Obiettivo

LILT accelera la creazione di contenuti multilingue per le aziende su larga scala con le GPU NVIDIA e NVIDIA NeMo™.

Cliente

LILT

Partner

AWS

Scenario di utilizzo

IA generativa / LLM

Prodotti

GPU NVIDIA A100 Tensor Core
GPU NVIDIA T4 Tensor Core
NVIDIA NeMo™

Generazione e traduzione di contenuti per l'impresa di LILT

La piattaforma di IA generativa di LILT può tradurre rapidamente grandi quantità di contenuto.

Quando un'agenzia europea per l'applicazione della legge ha avuto bisogno di una soluzione dinamica per tradurre elevati volumi di contenuti in lingue con scarse risorse in tempi ristretti, si è rivolta a LILT. La piattaforma di intelligenza artificiale generativa di LILT, alimentata da modelli linguistici di grandi dimensioni, ha permesso di tradurre più rapidamente informazioni sensibili al fattore tempo su larga scala, sfruttando le GPU NVIDIA e NVIDIA NeMo, un framework aziendale end-to-end per costruire, personalizzare e distribuire modelli di IA generativa.

Le sfide della traduzione per le forze dell'ordine

Il reparto di polizia raccoglie grandi volumi di prove scritte in lingue straniere a bassa risorsa, che hanno quantità limitate di risorse digitali e dati disponibili per una traduzione efficiente. Purtroppo, i limiti di tempo imposti per le indagini e l'ammissibilità delle prove, insieme a un pool limitato di linguisti disponibili per la traduzione, hanno aggiunto vincoli e minacciato la capacità dell'agenzia di perseguire i criminali.

La soluzione LILT

Grazie a un flusso di lavoro versatile di strumenti pronti all'uso, la piattaforma di IA generativa di LILT ha evitato che questi problemi di risorse limitassero l'efficacia dell'agenzia nel fermare il crimine. Persone non esperte in linguistica lavorano in modo autonomo, utilizzando la traduzione automatica per selezionare una varietà di documenti alla ricerca di contenuti di alto valore, inviando anche traduzioni di massa attraverso l'API al cloud. I linguisti possono così concentrare il loro tempo e le loro competenze sulla traduzione di documenti probatori utilizzando lo strumento di traduzione predittiva e adattiva di LILT. Questo flusso di lavoro è stato impiegato in operazioni importanti, contribuendo a centinaia di arresti di criminali e alla confisca di armi e droghe illegali.

Immagine per gentile concessione di CCC

LILT e NVIDIA su AWS

Sfruttando LILT e le GPU NVIDIA, l'agenzia ha raggiunto velocità di traduzione fino a 150.000 parole al minuto (in quattro lingue). L'implementazione su AWS supporta una scalabilità ben superiore a quella possibile in loco. Le risorse scalabili delle GPU aumentano facilmente il throughput durante i picchi di lavoro, il che significa che nessun utente finale aspetta una coda per essere elaborato e nessuna missione rimane senza un supporto e una risorsa adeguati.

Per ottenere questo risultato, la LILT ha accelerato l'addestramento del modello con GPU NVIDIA A100 Tensor Core e inferenza di modello con GPU NVIDIA T4 Tensor Core. Utilizzando i modelli sviluppati con NeMo, la piattaforma di LILT è in grado di offrire un incremento delle prestazioni di inferenza fino a 30 volte rispetto a modelli equivalenti eseguiti su CPU. Inoltre, la piattaforma NVIDIA AI consente a LILT di scalare le dimensioni dei propri modelli di 5 volte con miglioramenti significativi, non solo in termini di latenza, ma anche di qualità.

NeMo fa parte di NVIDIA AI Enterprise, che fornisce una piattaforma software end-to-end sicura e di livello produttivo per le aziende che creano e distribuiscono software di intelligenza artificiale accelerati.

I modelli di apprendimento automatico adattivo di LILT migliorano costantemente, in particolare quando i contenuti vengono rivisti e i linguisti forniscono input. Questi vengono poi utilizzati come dati di formazione per la messa a punto del modello. Grazie a questo continuo miglioramento del contesto, gli strumenti dinamici di LILT tengono il passo con il linguaggio colloquiale in continua evoluzione sui social media e su altre fonti di contenuti cruciali. LILT implementa inoltre un flusso di lavoro sfaccettato con applicazioni per linguisti e non linguisti, consentendo a ciascun team di lavorare in modo autonomo e di sfruttare al meglio le proprie competenze per ottenere la massima efficienza in situazioni sensibili.

Scopri di più su come altre organizzazioni stanno sfruttando LILT per migliorare le proprie operazioni e l'esperienza dei clienti.

Immagine per gentile concessione di CCC

  • LILT utilizza NVIDIA NeMo per sviluppare modelli che aumentano l'inferenza.
  • NeMo è un framework end-to-end cloud-native per la creazione, la personalizzazione e la distribuzione di modelli di IA generativa ovunque. Include framework di formazione e inferenza, toolkit di guardrailing, strumenti di gestione dei dati e modelli pre-addestrati, offrendo alle imprese un modo semplice, economico e veloce per adottare l'IA generativa.
  • Le GPU NVIDIA A100 Tensor Core offrono un'accelerazione senza precedenti a ogni scala.
  • Le GPU NVIDIA A100 alimentano i data center elastici più performanti al mondo per l'intelligenza artificiale, l'analisi dei dati e il calcolo ad alte prestazioni (HPC). L'accelerazione GPU combinata con NVIDIA AI Enterprise, una soluzione software sicura e nativa del cloud, consente alle organizzazioni di sfruttare una piattaforma end-to-end per passare dal pilota alla produzione.
  • Distribuito su AWS, LILT può scalare l'intelligenza artificiale di produzione.
  • AWS e NVIDIA collaborano da oltre 13 anni per fornire continuamente soluzioni basate su GPU potenti, economiche e flessibili per i clienti. Le istanze Amazon EC2 alimentate da GPU NVIDIA offrono le prestazioni scalabili necessarie per una formazione rapida sull'apprendimento automatico, un'inferenza di apprendimento automatico economica, workstation virtuali remote flessibili e potenti calcoli H

Programma NVIDIA Inception

LILT è membro di NVIDIA Inception, un programma gratuito che promuove le startup che rivoluzionano le industrie grazie ai progressi tecnologici. In qualità di partner di Inception, LILT ha sfruttato i crediti cloud, le opportunità di marketing, gli sconti hardware, il capitale di rischio, i crediti del Deep Learning Institute di NVIDIA e il supporto tecnico esperto di NVIDIA.

Cos'è NVIDIA Inception?

  • NVIDIA Inception è un programma gratuito progettato per aiutare le startup a evolvere più velocemente grazie a tecnologie all'avanguardia, opportunità di connettersi con i venture capitalist e l'accesso alle ultime risorse tecniche di NVIDIA.

A differenza degli acceleratori tradizionali, NVIDIA Inception

  • supporta le startup in tutte le fasi del loro ciclo di vita. Lavoriamo a stretto contatto con i membri per fornire i migliori strumenti tecnici, le ultime risorse e le opportunità di connettersi con gli investitori.

Entra a far parte della rete globale di NVIDIA Inception, che conta oltre 15.000 startup tecnologiche.