公共部門

犯罪捜査で AI を活用して言語を翻訳する

目的

LILT は、NVIDIA GPU と NVIDIA NeMo™ を活用して企業の大規模な多言語コンテンツ作成を加速します。

顧客

LILT

パートナー

AWS

用途

生成 AI / LLM

製品

NVIDIA A100 Tensor コア GPUs
NVIDIA T4 Tensor コア GPUs
NVIDIA NeMo™

LILT の企業向けコンテンツ生成と翻訳

LILT の生成 AI プラットフォームでは、大量のコンテンツを瞬時に翻訳できます。

欧州のある法執行機関は、リソースの少ない言語の大量コンテンツを限られた時間内に翻訳する優れたソリューションを必要としており、LILT に注目しました。大規模言語モデルを搭載した LILT の生成 AI プラットフォームは、NVIDIA GPU と、生成 AI モデルの構築、カスタマイズ、展開のためのエンドツーエンド エンタープライズ フレームワークである NVIDIA NeMo を活用することで、一刻を争う膨大な量の情報の翻訳を高速化しました。

法執行機関の翻訳の課題

その法執行機関はリソースが少ない外国語で書かれた大量の証拠を収集しますが、効率的に翻訳するために利用できるデジタル リソースとデータの量は限られています。残念なことに、調査と証拠集めに許される時間的制約に加え、翻訳者として登録されている言語専門家の数も限られており、制約が増え、犯罪者の起訴において支障をきたしていました。

LILT のソリューション

LILT の生成 AI プラットフォームは、「アット デスク」ツールの汎用性の高いワークフローにより、こうしたリソースの問題が犯罪抑止効果を制限してしまうことを防いでいます。言語専門家ではない人が自主的に作業し、API 経由でクラウドに一括翻訳を送信するなど、機械翻訳を使用し、さまざまなドキュメントの中から価値の高いコンテンツを選別しますその後は言語専門家が、LILT の予測適応型翻訳ツールを使用し、証拠文書の翻訳に時間とスキルを集中させることができます。このワークフローは主要な業務に導入されており、何百もの犯罪者逮捕や違法薬物や武器の没収に貢献しています。

Image courtesy of CCC

AWS の LILT と NVIDIA

AWS は LILT と NVIDIA GPU を活用し、1 分あたり最大 150,000 語の翻訳スループットを達成しました (4 つの言語でベンチマーク)。AWS での展開は、オンプレミスで可能なものをはるかに超えるスケーリングをサポートします。拡張性の優れた GPU リソースは、ピーク時のスループットを容易に向上させます。つまり、キューが処理されるまでエンド ユーザーが待たされることはありません。また、すべてのミッションに適切なサポートとリソースが与えられます。

この結果を達成するために、LILT は NVIDIA A100 Tensor コア GPU でモデル トレーニングを高速化し、NVIDIA T4 Tensor コア GPU でモデル推論を高速化しました。NeMo で開発されたモデルを使用することで、LILT のプラットフォームでは、CPU で実行される同等のモデルと比較し、推論性能において最大 30 倍の文字スループット向上を実現することができます。さらに、NVIDIA AI プラットフォームにより、LILT はレイテンシだけでなく品質も大幅に改善しながらモデル サイズを 5 倍に拡張することができます。

NeMo は NVIDIA AI Enterprise の一部として含まれており、高速化された AI ソフトウェアを構築し展開する企業向けに、本番環境レベルで安全なエンドツーエンドのソフトウェア プラットフォームを提供します。

LILT の適応型機械学習モデルはコンテンツがレビューされ、言語専門家が情報をインプットすることで常に改善されます。それがその後、モデルのファインチューニングのためのトレーニング データとして活用されます。この継続的なコンテキスト強化の結果として、LILT の動的ツールは、ソーシャル メディアやその他の重要なコンテンツ ソースにおいて、絶えず変化する口語表現に対応します。LILT はまた、言語専門家向け、非言語専門家向けのアプリケーションでも等しく、多面的ワークフローを導入しています。各チームが自主的に作業し、固有のスキルセットを最大限に活用することで、時間が重要な状況で効率性を極めることを可能にします。

LILT を活用し、自社のビジネスと顧客体験を改善している企業は他にもあります。詳細をご覧ください。

Image courtesy of CCC

  • LILT は NVIDIA NeMo を使用し、推論を強化するモデルを開発しています。
  • NeMo は、場所を問わず、生成 AI モデルを構築、カスタマイズ、展開するためのエンドツーエンドのクラウドネイティブな フレームワークです。トレーニングと推論のフレームワーク、ガードレール ツールキット、データ キュレーション ツール、学習済みモデルが含まれており、企業は生成 AI を簡単かつ費用対効果に優れた方法で迅速に導入することができます。
  • NVIDIA A100 Tensor コア GPU は、あらゆる規模で前例のない高速化を実現します。
  • NVIDIA A100 GPU は、AI、データ分析、ハイパフォーマンス コンピューティング (HPC) のための世界最高性能のエラスティック データ センターの力となっています。GPU アクセラレーションと安全なクラウドネイティブ ソフトウェア ソリューションである NVIDIA AI Enterprise を組み合わせることで、エンドツーエンドのプラットフォームを活用してパイロットから本番環境に移行できます。
  • AWS に展開された LILT では、運用 AI を拡張できます。
  • AWS と NVIDIA は 13 年以上にわたって協業し、強力で費用対効果に優れた、柔軟性の高い GPU ベースのソリューションをお客様に提供し続けてきました。NVIDIA GPU を搭載した Amazon EC2 インスタンスは、高速機械学習トレーニング、費用対効果の高い機械学習推論、柔軟なリモート仮想ワークステーション、強力な HPC 計算に必要なスケーラブルなパフォーマンスを提供します。

NVIDIA Inception Program

LILT は NVIDIA Inception のメンバーです。NVIDIA Inception は、テクノロジの進歩で業界に革命を起こすスタートアップを育成する無料プログラムです。Inception パートナーとして、LILT はクラウド クレジット、マーケティング機会、ハードウェア割引、ベンチャー キャピタル、NVIDIA Deep Learning Institute クレジット、NVIDIA エキスパート テクニカル サポートを活用しています。

NVIDIA Inception とは何ですか?

  • NVIDIA Inception は、最新のテクノロジ、ベンチャー キャピタルとの交流の機会、NVIDIA の最新のテクニカル リソースを通じて、スタートアップ企業の成長を加速させる無料のプログラムです。

NVIDIA Inception Program の利点

  • 従来のプログラムとは異なり、NVIDIA Inception ではスタートアップ企業をそのライフ サイクル全体でサポートします。NVIDIA はメンバーと緊密に連携し、最良のテクニカル ツール、最新のリソース、投資家と接触する機会を提供します。

NVIDIA Inception のグローバル ネットワークにご参加ください。15,000 社を超えるテクノロジ系スタートアップ企業が参加しています。