Öffentlicher Sektor

Innovationsförderung und Kostensenkung durch die KI-Fabrik von Lockheed Martin

Lockheed Martin

Ziel

Durch die Zentralisierung von Rechenressourcen, Tools für maschinelles Lernen (MLOps) und Best Practices in seiner KI-Fabrik, unterstützt von einem NVIDIA DGX SuperPOD™ für Training und Inferenz, beschleunigt Lockheed Martin die Einführung von KI. In der Lockheed Martin AI Factory entwickelte das Unternehmen eine maßgeschneiderte MLOps-Plattform, die auf ein DGX SuperPOD aufbaut und den Teams die notwendigen Lösungen zur Verfügung stellt, um vertrauenswürdige KI in großem Umfang zu entwickeln und bereitzustellen.

Kunde

Lockheed Martin

Anwendungsfall

Generative KI/LLMs

Produkte

NVIDIA DGX

Beschleunigung der Entwicklung und Integration von KI bei Lockheed Martin

Lockheed Martin ist das führende globale Unternehmen für Sicherheitstechnologie und zeichnet sich durch die Entwicklung fortschrittlicher „21st Century Security®“-Lösungen in Sektoren wie Luft- und Raumfahrt, Weltraumforschung und Cybersicherheit aus. Seit mehr als einem Jahrhundert entwickelt das Unternehmen Lösungen für komplexe Probleme und treibt die wissenschaftliche Forschung voran. Zu den aktuellen Projekten gehören die Entsendung von Menschen zum Mars, die Rückkehr zum Mond und die bessere Erkennung, Vorhersage und Bekämpfung von Waldbränden

.

Mit 122.000 Mitarbeitern weltweit dehnt Lockheed Martin die Einführung von KI zur Steigerung von Effizienz und Innovation auf das gesamte Unternehmen aus. Die aktuelle Integration von KI in Hunderten von Projekten verbessert Kundenprogramme und optimiert interne Geschäftsabläufe. Zur weiteren Beschleunigung der digitalen Transformation wurde 2021 das Lockheed Martin AI Center (LAIC) gegründet, um Barrieren für die Bereitstellung von KI zu reduzieren. Die KI-Fabrik-Initiative integriert Infrastruktur und MLOps und generative KI-Tools. Sie ermöglicht es Ingenieuren und Entwicklern, automatisierte und wiederholbare KI-gestützte Funktionen in hochsicheren Anwendungen bereitzustellen und KI-gestützte Lösungen schnell und in großem Umfang vom Prototyp in den Produktivbetrieb zu überführen.

Lockheed Martin

Lockheed-Martin-Technik

Lockheed Martin

Zentralisierung der KI-Infrastruktur zur Überwindung von Fragmentierung und Ineffizienz

Lockheed Martin hält sich an die Anordnung des Weißen Hauses zur Entwicklung einer sicheren und vertrauenswürdigen KI. „Aufgrund unserer strengen Richtlinien für die Datenverwaltung ist es von entscheidender Bedeutung, dass unsere Daten bei Lockheed Martin oder in klassifizierten Umgebungen bleiben. Zugriffskontrollen stellen sicher, dass Mitarbeiter nur die Daten sehen, die sie benötigen, und Datenbestände in ihren Arbeitsbereichen sichern können“, sagt Greg Forrest, Director of AI Foundations bei Lockheed Martin.

Forrest fügt hinzu: „Neben der Datenverwaltung und -sicherheit sahen sich die Teams mit Herausforderungen infolge fragmentierter Prozesse, begrenzter Automation und separater Rechenressourcen konfrontiert, was zu Ineffizienz, erhöhten Kosten und veralteten Rechenressourcen führte. Doppelte Arbeit und inkonsistente Praktiken entstanden aus dem Mangel an einer einheitlichen KI-Strategie und klarem Anbietermanagement.“

Zur Unterstützung der vielfältigen Anwendungsfälle im gesamten Unternehmen begann das LAIC mit der Zentralisierung von Rechenressourcen, MLOps-Tools und Best Practices mittels einer eigenen KI-Fabrik, die auf der Referenzarchitektur für Training und Bereitstellung des NVIDIA DGX SuperPOD aufbaut. Auf diese Weise konnte das Unternehmen die ethischen Leitlinien der Regierung für KI einhalten und gleichzeitig Best-of-Breed-Technologie im gesamten Technologie-Stack nutzen.

  • Lockheed Martin wollte seine Infrastruktur vereinheitlichen, seine Cloud-Ressourcen optimieren und Best Practices in allen Teams einführen.
  • Zu diesem Zweck richtete das Unternehmen die Lockheed Martin AI Factory ein, die Rechenressourcen, MLOps-Tools und Best Practices mit einer maßgeschneiderten und auf dem DGX SuperPOD basierten MLOps-Plattform zentralisiert, um seinen Teams Lösungen zur Entwicklung und Bereitstellung vertrauenswürdiger KI in großem Maßstab bereitzustellen.
  • Entwickler können jetzt sicher auf GPU-Ressourcen zugreifen und ihre Umgebungen innerhalb von Minuten einrichten und nutzen. Statt Wochen dauert das Trainieren jetzt nur noch Tage.
  • Durch die Zentralisierung generativer KI-Workloads auf dem DGX SuperPOD kann das Unternehmen die volle Leistung einer spezialisierten Infrastruktur nutzen und die verstreuten Gemeinkosten von Cloud-Umgebungen reduzieren.
  • Lockheed Martin nutzt DGX SuperPOD, um Modelle zu trainieren und anzupassen und sie in seiner internen KI-Fabrik zu hosten. Dieses Setup unterstützt die schnelle Entwicklung von KI-Anwendungen, wie interne Chatbots und Coding-Assistenten.

Lockheed Martin

Schneller Zugriff auf sicheres Computing und Best Practices steigern Entwicklerproduktivität

„Einer der wichtigsten Vorteile, den wir nach der Implementierung unserer KI-Fabrik beobachtet haben, war eine erhebliche Steigerung der Entwicklerproduktivität“, sagt Bryan Donovan, Technical Lead of AI Foundations bei Lockheed Martin. „Zuvor war die Einrichtung einer Entwicklungsumgebung auf lokalen Laptops oder Workstations aufgrund strenger Sicherheitsbeschränkungen eine Herausforderung und nahm oft mehrere Wochen in Anspruch. Jetzt können Entwickler mit der auf dem DGX SuperPOD basierenden KI-Fabrik GPU-Ressourcen anfordern und ihre Umgebungen in wenigen Minuten einrichten und nutzen.“

Der Zugriff auf GPUs mit Highspeed-Schnittstellen des DGX SuperPOD macht es den Teams möglich, Funktionen zu nutzen, die für einzelne Programme bisher unerschwinglich waren. Trainingsprozesse, die einst Wochen in Anspruch nahmen, dauern jetzt nur noch Tage. Forrest weiter: „Zusätzlich können wir mit unserer KI-Fabrik Best Practices und Know-how mit allen Bereichen von Lockheed Martin teilen. Wir haben bewährte KI-Methoden in einer Reihe von wiederverwendbaren Komponenten, Pipelines und Playbooks kodifiziert, was die Produktivität der Entwickler weiter verbessert.“

Die Zentralisierung der Datenverarbeitung in Lockheed Martins KI-Fabrik hat zu erheblichen Kosteneinsparungen geführt. Wenn ein Modell Text in kleinere Einheiten wie Wörter, Wortbestandteile oder Zeichen zerlegt, werden Token erzeugt, die im Trainingsprozess dazu verwendet werden, Textdaten in numerische Daten umzuwandeln, die das Modell versteht und aus denen es lernen kann. „Die Nutzung von APIs über die Public Cloud erfordert den Kauf von Token, um die Rechenkosten zu decken. Bei unserer hausinternen KI-Fabrik übernehmen wir selbst die Tokenisierung, das Trainieren und die Bereitstellung“, so Forrest. „Unser DGX SuperPOD ermöglicht die Verarbeitung von über einer Milliarde Token pro Woche und damit die Optimierung, Retrieval Augmented Generation (RAG) oder Inferenz unserer großen Sprachmodelle (LLMs). Diese Lösung vermeidet die ausufernden Kosten und die erheblichen Einschränkungen durch Gebühren für die Token-Nutzung.“

Neben seinem DGX SuperPOD nutzt das Team auch Burst-Scaling in Cloud-Umgebungen, wenn dies zu bestimmten Zeiten erforderlich ist und das Trainieren und die Datenverarbeitung nicht der Geheimhaltung unterliegen. Die hausinternen DGX-Systeme ermöglichen Lockheed Martin die Kontrolle bestimmter Datentypen und Telemetrie in einer sicheren Umgebung. „Mit zugelassenen internen Rechenzentren können Entwickler sensible Daten sofort nutzen und dabei die Sicherheit und Agilität für alle Anwendungsfälle sicherstellen, ohne auf zusätzliche Genehmigungen warten zu müssen. Dies erhöht die Flexibilität und beschleunigt die Bereitstellung von KI-Lösungen“, so Donovan.

„Lockheed Martin hat eine enorme Menge an unterschiedlichen Datentypen, die für verschiedene KI-Anwendungen verarbeitet werden, darunter Zeitreihendaten, Signalanalyse, Geodaten, Text, Bild und Video. Das DGX SuperPOD unterstützt eine breite Palette von Anwendungsfällen auf derselben Plattform, von der Datenanalyse bis hin zu Inferenz im großen Umfang, was die Effizienz erhöht und die Kosten senkt“, fügt Forrest hinzu.

„Unser DGX SuperPOD ermöglicht die Verarbeitung von über einer Milliarde Token pro Woche. ... Diese Lösung vermeidet die ausufernden Kosten und die erheblichen Einschränkungen durch Gebühren für die Token-Nutzung.“

Greg Forrest
Director of AI Foundations, Lockheed Martin

Unterstützung von 7.000 Nutzern ohne Kompromisse bei Experimenten, Kosten oder Datensicherheit

Heute nutzen 7.000 Ingenieure und Entwickler die KI-Fabrik von Lockheed Martin, unterstützt von einem DGX SuperPOD, um Programme in allen Bereichen von Lockheed Martin zu unterstützen und Tausende von automatisierten Pipelines und Millionen wöchentlicher API-Aufrufe zu produzieren. Mehr als 1.100 Auszubildende haben ihr KI-Wissen mithilfe des Deep Learning Institute (DLI) von NVIDIA erweitert, während Tausende andere zusätzliche Schulungsprogramme des Lockheed AI Center (LAIC) absolvierten. Dabei eigneten sich die Teilnehmer technisches Know-how an und sammelten praktische Erfahrung mit branchenüblichen Tools und Frameworks.

„Wir sind von verstreuten GPUs in einer lokalen Ad-hoc-Infrastruktur, statischen und nicht ausgelasteten Cloud-Ressourcen und dem Trainieren direkt auf Laptops zu einer zentralisierten Plattform übergegangen, wo wir nicht Experimente gegen die Kosten oder Datensicherheit abwägen müssen“, sagt Donovan. „Dieser Umstieg beschleunigt unseren Workflow.“ Die KI-Fabrik unterstützt verschiedene generative KI-Workloads, RAG, die Optimierung von LLMs sowie interne Chatbots und Coding-Assistenten.

„Wir haben zum Beispiel die Angebotserstellung effizienter gemacht. Als Auftragnehmer staatlicher Institutionen lesen wir enorm viele Angebote und haben ein riesiges Angebotsarchiv“, so Forrest. „Wir hosten ein quelloffenes großes Sprachmodell auf dem DGX SuperPOD und haben RAG auf die Angebote von Lockheed Martin angewendet. So können wir schnell neue Angebote mit generativer KI generieren, bei denen frühere Arbeit einfließt und neue Inhalte erzeugt werden.“

„Ein weiteres Beispiel ist der Lockheed Martin Text Navigator, ein Chat-Interface mit einem großen Sprachmodell, das große Textmengen zusammenfassen, Forschungsarbeiten analysieren, Strategieideen generieren und in integrierten Entwicklungsumgebungen eingebetteten Code erzeugen und korrigieren kann“, so Forrest weiter.

Lockheed Martin Text Navigator wird von Tausenden Mitarbeitern für tägliche Produktivaufgaben genutzt. Das auf dem DGX SuperPOD intern gehostete Tool, das sicher über Lockheed Martin MLOps und die Plattform für generative KI bereitgestellt wird, steigert die Effizienz und unterstützt eine breite Palette von Funktionen im gesamten Unternehmen.

„Wir sind von verstreuten GPUs ... zu einer zentralisierten Plattform übergegangen, wo wir nicht Experimente gegen die Kosten oder Datensicherheit abwägen müssen.“

Bryan Donovan
Technical Lead of AI Foundations, Lockheed Martin

Blick in die Zukunft

Lockheed Martin baut das in seiner KI-Fabrik genutzte NVIDIA DGX SuperPOD immer weiter aus, um Open-Source-Modelle zu trainieren und zu optimieren und neue Sprachmodelle für spezielle Anwendungen zu entwickeln. Training und Inferenz erfolgen im DGX SuperPOD mit dem NVIDIA Triton Inference Server™ und dem NVIDIA NeMo™ Framework, die in NVIDIA AI Enterprise enthalten sind, sowie mit CUDA® und vorintegrierten NVIDIA-Abbildern.

„Das Fachwissen von Lockheed Martin revolutioniert in Kombination mit der zukunftsweisenden Infrastruktur von NVIDIA die Art und Weise, wie wir die Anforderungen von Unternehmen und Missionen mithilfe von KI angehen. Das ermöglicht es uns, komplexe Herausforderungen mit beispielloser Schnelligkeit, Genauigkeit und Einsicht zu bewältigen“, sagt Matt Wittstock, Lockheed Martin AI Infrastructure Lead.

Dieser integrierte Ansatz beschleunigt die Entwicklung und Bereitstellung von KI und ermöglicht es Lockheed Martin, seinen Kunden effizient fortschrittliche KI-Lösungen zu liefern. Bis jetzt wurden mithilfe seiner KI-Fabrik mehr als 30 Modelle in seiner hausinternen Infrastruktur konsolidiert, und es werden immer mehr.

Heute ist Lockheed Martin voll ausgelastet und gelegentlich kommt es auch zur Überlastung seiner hausinternen Hardware. Mit 122.000 Mitarbeitern, von denen immer mehr täglich generative KI nutzen, verarbeitet das Unternehmen bereits Millionen von API-Aufrufen pro Woche. Zur Unterstützung der wachsenden Workloads plant Lockheed Martin die Erweiterung seiner hausinternen Umgebung mit neuen NVIDIA GPU-Architekturen und möchte in der Zukunft seine KI-Fabrik und MLOPs-Lösung seinen Kunden kommerziell zur Verfügung stellen.

„Das Fachwissen von Lockheed Martin revolutioniert in Kombination mit der zukunftsweisenden Infrastruktur von NVIDIA die Art und Weise, wie wir die Anforderungen von Unternehmen und Missionen mithilfe von KI angehen. Das ermöglicht es uns, komplexe Herausforderungen mit beispielloser Schnelligkeit, Genauigkeit und Einsicht zu bewältigen.“

Matt Wittstock
Lockheed Martin AI Infrastructure Lead

Lockheed Martin

Ergebnisse

  • Sichere, hausinterne GPU-beschleunigte KI-Umgebungen, die nicht mehr in Wochen, sondern in Minuten eingerichtet werden.
  • Erhebliche Kosteneinsparungen bei der Skalierung generativer KI.
  • Einheitliche Infrastruktur für verschiedene Datentypen und Anwendungsfälle, vom Training bis zur Inferenz.
  • Unterstützung für 7.000 Ingenieure und Entwickler, die wöchentlich Tausende von automatisierten Pipelines produzieren.

DGX SuperPOD bietet eine beschleunigte Infrastruktur der Spitzenklasse und skalierbare Leistung für die anspruchsvollsten KI-Workloads – mit branchenweit anerkannten Ergebnissen.