LILT accelera la creazione di contenuti multilingue per le aziende su larga scala con le GPU NVIDIA e NVIDIA NeMo™.
LILT
AWS
IA generativa / LLM
GPU NVIDIA A100 Tensor Core
GPU NVIDIA T4 Tensor Core
NVIDIA NeMo™
La piattaforma di IA generativa di LILT può tradurre rapidamente grandi quantità di contenuto.
Quando un'agenzia europea per l'applicazione della legge ha avuto bisogno di una soluzione dinamica per tradurre elevati volumi di contenuti in lingue con scarse risorse in tempi ristretti, si è rivolta a LILT. La piattaforma di intelligenza artificiale generativa di LILT, alimentata da modelli linguistici di grandi dimensioni, ha permesso di tradurre più rapidamente informazioni sensibili al fattore tempo su larga scala, sfruttando le GPU NVIDIA e NVIDIA NeMo, un framework aziendale end-to-end per costruire, personalizzare e distribuire modelli di IA generativa.
Il reparto di polizia raccoglie grandi volumi di prove scritte in lingue straniere a bassa risorsa, che hanno quantità limitate di risorse digitali e dati disponibili per una traduzione efficiente. Purtroppo, i limiti di tempo imposti per le indagini e l'ammissibilità delle prove, insieme a un pool limitato di linguisti disponibili per la traduzione, hanno aggiunto vincoli e minacciato la capacità dell'agenzia di perseguire i criminali.
Grazie a un flusso di lavoro versatile di strumenti pronti all'uso, la piattaforma di IA generativa di LILT ha evitato che questi problemi di risorse limitassero l'efficacia dell'agenzia nel fermare il crimine. Persone non esperte in linguistica lavorano in modo autonomo, utilizzando la traduzione automatica per selezionare una varietà di documenti alla ricerca di contenuti di alto valore, inviando anche traduzioni di massa attraverso l'API al cloud. I linguisti possono così concentrare il loro tempo e le loro competenze sulla traduzione di documenti probatori utilizzando lo strumento di traduzione predittiva e adattiva di LILT. Questo flusso di lavoro è stato impiegato in operazioni importanti, contribuendo a centinaia di arresti di criminali e alla confisca di armi e droghe illegali.
Immagine per gentile concessione di CCC
Sfruttando LILT e le GPU NVIDIA, l'agenzia ha raggiunto velocità di traduzione fino a 150.000 parole al minuto (in quattro lingue). L'implementazione su AWS supporta una scalabilità ben superiore a quella possibile in loco. Le risorse scalabili delle GPU aumentano facilmente il throughput durante i picchi di lavoro, il che significa che nessun utente finale aspetta una coda per essere elaborato e nessuna missione rimane senza un supporto e una risorsa adeguati.
Per ottenere questo risultato, la LILT ha accelerato l'addestramento del modello con GPU NVIDIA A100 Tensor Core e inferenza di modello con GPU NVIDIA T4 Tensor Core. Utilizzando i modelli sviluppati con NeMo, la piattaforma di LILT è in grado di offrire un incremento delle prestazioni di inferenza fino a 30 volte rispetto a modelli equivalenti eseguiti su CPU. Inoltre, la piattaforma NVIDIA AI consente a LILT di scalare le dimensioni dei propri modelli di 5 volte con miglioramenti significativi, non solo in termini di latenza, ma anche di qualità.
NeMo fa parte di NVIDIA AI Enterprise, che fornisce una piattaforma software end-to-end sicura e di livello produttivo per le aziende che creano e distribuiscono software di intelligenza artificiale accelerati.
I modelli di apprendimento automatico adattivo di LILT migliorano costantemente, in particolare quando i contenuti vengono rivisti e i linguisti forniscono input. Questi vengono poi utilizzati come dati di formazione per la messa a punto del modello. Grazie a questo continuo miglioramento del contesto, gli strumenti dinamici di LILT tengono il passo con il linguaggio colloquiale in continua evoluzione sui social media e su altre fonti di contenuti cruciali. LILT implementa inoltre un flusso di lavoro sfaccettato con applicazioni per linguisti e non linguisti, consentendo a ciascun team di lavorare in modo autonomo e di sfruttare al meglio le proprie competenze per ottenere la massima efficienza in situazioni sensibili.
Scopri di più su come altre organizzazioni stanno sfruttando LILT per migliorare le proprie operazioni e l'esperienza dei clienti.
Immagine per gentile concessione di CCC
LILT è membro di NVIDIA Inception, un programma gratuito che promuove le startup che rivoluzionano le industrie grazie ai progressi tecnologici. In qualità di partner di Inception, LILT ha sfruttato i crediti cloud, le opportunità di marketing, gli sconti hardware, il capitale di rischio, i crediti del Deep Learning Institute di NVIDIA e il supporto tecnico esperto di NVIDIA.
Cos'è NVIDIA Inception?
A differenza degli acceleratori tradizionali, NVIDIA Inception
Entra a far parte della rete globale di NVIDIA Inception, che conta oltre 15.000 startup tecnologiche.