Secteur public

Stimuler l’innovation et réduire les coûts grâce à l’usine d’IA de Lockheed Martin

Lockheed Martin

Objectif

Lockheed Martin accélère l'adoption de l'IA en centralisant les ressources de calcul, les outils d'opérations d'apprentissage machine (MLOps) et les bonnes pratiques dans son usine d'IA, équipée d'un NVIDIA DGX SuperPOD™ pour l'entraînement et l'inférence. Au sein de la Lockheed Martin AI Factory, l'entreprise a développé une plateforme MLOps personnalisée, basée sur le DGX SuperPOD, fournissant les solutions nécessaires aux équipes pour construire et déployer une IA fiable à grande échelle.

Client

Lockheed Martin

Utilisation

IA générative/LLM

Produits

NVIDIA DGX

Accélérer le développement et l’intégration de l’IA chez Lockheed Martin

Lockheed Martin, leader mondiale des technologies de sécurité, excelle dans le développement de solutions avancées 21st Century Security® dans des secteurs tels que l'aérospatial, l'exploration spatiale et la cybersécurité. Depuis plus d'un siècle, cette entreprise a résolu des défis complexes et fait progresser la recherche scientifique de pointe. Les projets actuels comprennent l'envoi d'humains sur Mars, leur retour sur la Lune et une meilleure détection, prédiction et lutte contre les feux de forêt.

Forte de ses 122 000 employés dans le monde, Lockheed Martin développe l'IA à l'échelle de l'entreprise pour stimuler l'efficacité et l'innovation. L'entreprise intègrent actuellement l'IA dans des centaines de projets, ce qui améliore les programmes clients et optimise les opérations commerciales internes. Pour accélérer davantage la transformation numérique, ils ont créé le Lockheed Martin AI Center (LAIC) en 2021 afin d'éliminer les obstacles au déploiement de l'IA. Cette initiative d'usine d'IA consiste en une intégration de l'infrastructure, des MLOps et des outils d'IA générative. Elle permet aux ingénieurs et aux développeurs de fournir des capacités basées sur l'IA dans des applications à haut niveau d'assurance, ce qui booste les solutions basées sur l'IA rapidement et à l'échelle, du prototype à la production.

Lockheed Martin

Ingénierie Lockheed Martin

Lockheed Martin

Centraliser l’infrastructure de l’IA pour surmonter la fragmentation et les inefficacités

Le développement d'une IA sûre, sécurisée et fiable est un ordre exécutif de la Maison Blanche auquel Lockheed Martin adhère. "En raison de nos directives strictes en matière de gouvernance des données, il est essentiel que ces dernières soient conservées dans les locaux de Lockheed Martin ou dans des environnements classifiés. Les contrôles d'accès garantissent que seules les personnes concernées voient les données dont elles ont besoin et qu'elles peuvent sécuriser les ensembles de données dans leurs espaces de travail," explique Greg Forrest, directeur d'AI Foundations chez Lockheed Martin.

M. Forrest poursuit : "Outre la gouvernance et la sécurité des données, nos équipes ont rencontré des difficultés découlant de processus fragmentés, d'une automatisation limitée et de ressources informatiques disparates, ce qui a conduit à des inefficacités, à une augmentation des coûts et à l'obsolescence des ressources informatiques. L'absence d'une stratégie d'IA unifiée et d'une gestion claire des fournisseurs a donné lieu à des doublons et à des pratiques incohérentes."

Pour prendre en charge l'ensemble diversifié de cas d'utilisation dans l'entreprise, le LAIC a cherché à centraliser les ressources de calcul, les outils MLOps et les bonnes pratiques via leur propre usine d'IA basée sur l'architecture NVIDIA DGX SuperPOD de référence pour l'entraînement et le déploiement, ce qui leur permet d'adhérer aux principes déontologiques du gouvernement en matière d'IA tout en tirant parti des meilleures solutions technologiques sur l'ensemble de la pile technologique.

  • L'objectif de Lockheed Martin était d'aligner son infrastructure, de rationaliser ses ressources cloud et de généraliser les bonnes pratiques au sein de ses équipes.
  • Pour y parvenir, l'entreprise a créé la Lockheed Martin AI Factory, qui centralise les ressources de calcul, les outils MLOps et les bonnes pratiques avec une plateforme MLOps personnalisée construite au-dessus de DGX SuperPOD, fournissant des solutions aux équipes pour construire et déployer une IA fiable à l'échelle.
  • Les développeurs peuvent désormais accéder aux ressources du GPU en toute sécurité et rendre leurs environnements opérationnels en quelques minutes, tout en réduisant le temps d'entraînement de quelques semaines à quelques jours.
  • La centralisation des charges de travail d'IA générative sur le DGX SuperPOD permet à l'entreprise de tirer parti de toute la puissance de l'infrastructure spécialisée et de réduire les coûts généraux des environnements Cloud dispersés.
  • Lockheed Martin utilise DGX SuperPOD pour former et personnaliser des modèles et les héberger sur son usine d'IA interne. Cette configuration permet le développement rapide d’applications d’IA, telles que des chatbots internes et des assistants de codage.

Lockheed Martin

Accès rapide à des solutions informatiques sécurisées et à des bonnes pratiques partagées

"L'augmentation substantielle de la productivité des développeurs a été l'un des avantages les plus notables que nous avons observés après la mise en œuvre de notre usine d'IA,", a déclaré Bryan Donovan, responsable technique d'AI Foundations chez Lockheed Martin. "Auparavant, la mise en place d'un environnement de développement sur des ordinateurs portables ou des stations de travail locales pouvait s'avérer difficile en raison de contraintes de sécurité strictes, et prenait souvent plusieurs semaines. Désormais, avec l'AI factory basée sur DGX SuperPOD, les développeurs peuvent accéder à des ressources GPU et rendre leurs environnements opérationnels en quelques minutes seulement." L'

accès aux GPU avec les interconnexions à grande vitesse offert par le DGX SuperPOD a permis aux équipes d'exploiter des capacités qui étaient auparavant inaccessibles pour certains programmes. Les processus d'entraînement qui prenaient auparavant des semaines durent à présent quelques jours. M. Forrest précise :

"De plus, notre usine d'IA nous permet de partager les bonnes pratiques et l'expertise à travers Lockheed Martin. Nous avons codifié les bonnes pratiques en matière d'IA sous la forme d'un ensemble de composants réutilisables, de pipelines et de guides, ce qui accroît encore la productivité des développeurs." La

centralisation des calculs par l'intermédiaire de la Lockheed Martin AI Factory a permis de réaliser d'importantes économies. Les jetons sont créés lorsqu'un modèle décompose un texte en unités plus petites, comme des mots, des bouts de mots ou des caractères, et sont utilisés dans le processus d'entraînement pour convertir des données textuelles en données numériques que le modèle peut comprendre et à partir desquelles il peut apprendre. "Pour utiliser des API sur le Cloud public, il faut acheter des jetons pour financer les frais de calcul, mais avec notre usine d'IA sur site, nous gérons la tokénisation, l'entraînement et le déploiement en interne," déclare M. Forrest. "Notre DGX SuperPOD nous permet de traiter plus d'un milliard de jetons par semaine, ce qui permet le réglage fin, la génération augmentée de récupération (RAG) ou l'inférence sur nos grands modèles de langage (LLM). Cette solution permet d'éviter une hausse des coûts et des restrictions importantes liées à des frais basés sur l'utilisation de jetons." En plus de son DGX SuperPOD, l'équipe utilise toujours des environnements Cloud pour répondre à des besoins temporels, et pour l'entraînement et le traitement de données non classifiés. Les systèmes DGX sur site permettent à Lockheed Martin de contrôler des types de données et une télémétrie spécifiques dans un environnement sécurisé. "Grâce aux centres de données internes approuvés, les développeurs peuvent exploiter immédiatement des données sensibles, ce qui garantit la sécurité et l'agilité dans tous les cas d'utilisation, sans avoir à attendre d'autres autorisations. Cela permet une plus grande flexibilité et un déploiement plus rapide des solutions d'IA," précise M. Donovan. "Lockheed Martin traite une énorme quantité de données très diverses pour diverses applications d'IA, notamment des données de séries temporelles, des données de signaux, des données géospatiales, des textes, des images et des vidéos. Le DGX SuperPOD prend en charge un large éventail de cas d'utilisation sur

la même plateforme, de l'analyse des données à l'inférence à l'échelle, ce qui améliore l'efficacité et réduit les coûts," ajoute M. Forrest.

"Notre DGX SuperPOD nous permet de traiter plus d’un milliard de jetons par semaine... Cette solution permet d'éviter une hausse des coûts et des restrictions importantes liées aux frais basés sur l'utilisation de jetons."

Greg Forrest
Directeur d'AI Foundations, Lockheed Martin

7 000 utilisateurs autonomisés sans sacrifier l'expérimentation, les coûts ou la sécurité des données

Aujourd'hui, 7 000 ingénieurs et développeurs accèdent à la Lockheed Martin’s AI Factory basée sur un DGX SuperPOD pour soutenir les programmes à travers l'entreprise, et produire des milliers de pipelines automatisés et des millions de demandes d'API hebdomadaires. Plus de 1 100 stagiaires ont amélioré leurs connaissances en IA grâce au Deep Learning Institute (DLI) de NVIDIA, tandis que des milliers d'autres ont suivi des programmes de formation supplémentaires organisés par le Lockheed AI Center (LAIC). Ces programmes ont permis aux participants d'acquérir une expertise technique et d'une expérience pratique à l'aide d'outils et de cadres standard du secteur.

"Nous sommes passés de GPU dispersés sur une infrastructure locale ad hoc, de ressources Cloud statiques et sous-utilisées, et même d'une formation directement sur des ordinateurs portables, à une plateforme centralisée, où nous ne sommes pas contraints de sacrifier l'expérimentation au profit du coût ou de la sécurité des données," a déclaré M. Donovan. "Ce changement accélère notre workflow." L'usine d'IA prend en charge diverses charges de travail d'IA générative, des RAG, le paramétrage de précision des LLM, des chatbots internes ainsi que des assistants de codage.

"Par exemple, nous avons rendu la rédaction de propositions plus efficace. En tant que sous-traitant au sens du code de la commande publique, nous lisons beaucoup de propositions et nous disposons d'un énorme référentiel de propositions," a commenté M. Forrest. "Nous hébergeons un grand modèle de langage open-source sur DGX SuperPOD et avons appliqué la RAG sur les propositions de Lockheed Martin. Cela nous permet de générer rapidement de nouvelles propositions à l'aide de l'IA générative, en résumant les travaux antérieurs et en créant de nouveaux contenus."

"On peut également citer le Lockheed Martin Text Navigator, une interface de dialogue en ligne avec un grand modèle de langage qui permet de résumer de grandes quantités de textes, d'analyser des documents de recherche, de générer des idées de stratégie, de produire et de dépanner du code intégré dans des IDE," a poursuivi M. Forrest

Lockheed Martin Text Navigator est utilisé par des milliers d'employés pour des tâches de productivité quotidiennes. Hébergé en interne sur le DGX SuperPOD et déployé en toute sécurité grâce aux MLOps de Lockheed Martin et à la plateforme d'IA générative, Text Navigator améliore l'efficacité et prend en charge un large éventail de fonctions dans l'ensemble de l'entreprise.

"Nous sommes passés de GPU dispersés [...] à une plateforme centralisée, où nous ne sommes pas contraints de sacrifier l'expérimentation au profit du coût ou de la sécurité des données."

Bryan Donovan
Responsable technique d'AI Foundations, Lockheed Martin

Un regard tourné vers l’avenir

Lockheed Martin exploite et continue de développer le NVIDIA DGX SuperPOD au sein de son usine d'IA pour entraîner et affiner des modèles open-source et développer de nouveaux modèles de langage pour des applications spécialisées. l'entraînement et l'inférence sont menées sur le DGX SuperPOD, en utilisant NVIDIA Triton Inference Server™ et NVIDIA NeMo™ Framework, inclus avec NVIDIA AI Enterprise, ainsi que CUDA® et des images NVIDIA pré-intégrées.

"L'expertise de Lockheed Martin dans ce domaine, combinée à l'infrastructure de pointe de NVIDIA, révolutionne la façon dont nous envisageons les exigences professionnelles et celles de la mission par le prisme de l'IA, ce qui nous permet de relever des défis complexes avec une vitesse, une précision et une connaissance inégalées", a expliqué Matt Wittstock, responsable des infrastructures d'IA de Lockheed Martin.

Cette approche intégrée accélère le développement et le déploiement de l'IA, permettant à Lockheed Martin de fournir efficacement des solutions d'IA avancées à ses clients. L'entreprise a déjà consolidé plus de 30 modèles sur son infrastructure sur site à l'aide de son usine d'IA, et ce nombre ne cesse de croître.

Aujourd'hui, Lockheed Martin constate une pleine utilisation, voire une sur-utilisation occasionnelle de son matériel sur site. Avec ses 122 000 employés dont un nombre croissant utilisent quotidiennement l'IA générative, l'entreprise traite déjà des millions d'appels d'API chaque semaine. En vue de prendre en charge des charges de travail croissantes, elle prévoit d'étendre son environnement sur site avec de nouvelles architectures de GPU NVIDIA et vise à commercialiser sa solution d'usine d'IA et MLOPs auprès de ses clients.

"L'expertise de Lockheed Martin dans le domaine, combinée à l'infrastructure de pointe de NVIDIA, révolutionne la façon dont nous envisageons les exigences professionnelles et celles de la mission par le prisme de l'IA, ce qui nous permet de relever des défis complexes avec une vitesse, une précision et une connaissance inégalées."

Matt Wittstock
Responsable des infrastructures d'IA - Lockheed Martin

Lockheed Martin

Résultats

  • Environnements d'IA sécurisés et accélérés par GPU sur site mis en place en quelques minutes au lieu de quelques semaines.
  • Réduction significative des coûts grâce à la mise à l'échelle de l'IA générative.
  • Infrastructure unifiée pour divers types de données et cas d'utilisation, de l'entraînement à l'inférence.
  • Assistance pour 7 000 ingénieurs et développeurs produisant des milliers de pipelines automatisés chaque semaine.

DGX SuperPOD offre une infrastructure accélérée à haut niveau de leadership et des performances évolutives pour les charges de travail d'IA les plus complexes, avec des résultats éprouvés dans le secteur.