Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA hat Pionierarbeit auf dem Gebiet des beschleunigten Computings geleistet, um Grenzen der Innovation für Entwickler, Designer und Kreative rund um den Globus zu durchbrechen und die weltgrößten Wirtschaftszweige zu transformieren. Beschleunigtes Computing mit NVIDIA Technik in Verbindung mit der Flexibilität, globalen Reichweite und Skalierbarkeit von Google Cloud beschleunigt die Entwicklung von Lösungen und senkt die Infrastruktur-Gesamtbetriebskosten für rechenintensive Workloads wie generative KI, Datenanalyse, HPC (High-Performance-Computing), Grafik und Gaming.
NVIDIA und Google Cloud arbeiten auf allen Ebenen des Gesamtkonzepts für generative KI zusammen und bieten Zugang zu Infrastrukturen der nächsten Generation, Software der Enterprise-Klasse und Inferenz-Microservices. Des Weiteren werden Grundmodelle optimiert, um die Zeit vom Prototyp bis zur Bereitstellung im Produktivbetrieb zu verkürzen.
NVIDIA und Google Cloud kooperieren, um erstklassige Lösungen für die Datenanalyse anzubieten, die es Unternehmen ermöglichen, wertvolle Erkenntnisse aus riesigen Datenmengen zu gewinnen und neue Möglichkeiten für die datengestützte Entscheidungsfindung und Innovation zu erschließen.
Die auf NVIDIA Technik basierende beschleunigte Computing-Plattform in Google Cloud hilft Entwicklern, Wissenschaftlern, Ingenieuren und Forschern bei der Bewältigung komplexer Workloads in Bereichen wie Biowissenschaften, Klimamodellierung, Fertigung, Energiewirtschaft, Quantensimulationen und Finanzdienstleistungen.
Lesen Sie, wie Let’s Enhance, ein führendes Computer-Vision-Startup, die NVIDIA AI Plattform auf der Google Kubernetes Engine (GKE) nutzt, um seinen KI-gestützten Fotobearbeitungsdienst in den Produktivbetrieb zu überführen und dabei den Durchsatz um 80 Prozent zu erhöhen und die Kosten um 34 Prozent zu senken.
Erfahren Sie, wie Writer, eine für Unternehmen konzipierte umfassende Plattform für generative KI, NVIDIA H100 und L4 Tensor Core GPUs auf GKE mit dem NVIDIA NeMo™ Framework und TensorRT™ LLM nutzt, um mehr als 17 große Sprachmodelle (LLMs) zu trainieren und bereitzustellen, die sich auf bis zu 70 Milliarden Parameter skalieren lassen.
LiveX.AI konnte durch die Nutzung der leistungsstarken NVIDIA NIM™ Inferenz-Microservices auf GKE mit NVIDIA GPUs die durchschnittliche KI-Token-Geschwindigkeit um das 6,1-Fache steigern. Diese Verbesserung ermöglicht es LiveX AI, in Echtzeit ein personalisiertes Kundenerlebnis zu bieten, einschließlich nahtlosem Kundensupport, sofortigen Produktempfehlungen und weniger Retouren.
Wählen Sie aus einem breiten Portfolio der neuesten NVIDIA GPUs für Google Compute Engine (GCE), um eine Vielzahl von rechenintensiven Workloads zu beschleunigen, darunter verteiltes LLM-Training, KI-Inferenz in Echtzeit, datenintensive Analyse mit Big-Data-Frameworks, wissenschaftliche Simulationen und Modellierungen mit HPC sowie Rendering fotorealistischer 3D-Grafik und immersiver virtueller Umgebungen.
Die Google Cloud A3 VM arbeitet mit acht NVIDIA H100 Tensor Core GPUs und eignet sich ideal für das Trainieren und die Bereitstellung von LLMs und Workloads mit generativer KI. Die A3 Mega VM bietet die doppelte GPU-zu-GPU-Netzwerkbandbreite im Vergleich zur A3 VM und eignet sich ideal für verteiltes KI-Training und Inferenz-Workloads.
Die Google Cloud G2 VM bietet Zugriff auf eine, zwei, vier oder acht NVIDIA L4 Tensor Core GPUs und eignet sich ideal für die Beschleunigung zahlreicher Workloads, darunter Inferenz mit generativer KI, KI-Videoverarbeitung, HPC, Grafikrendering und Visualisierung.
Google Cloud wird unter den ersten Cloud-Anbietern sein, die die NVIDIA Blackwell Plattform in zwei Konfigurationen anbieten – NVIDIA GB200 NVL72 und HGX™ B200 –, um so eine neue Computing-Ära mit LLM-Inferenz in Echtzeit und massiver Trainingsleistung für Modelle mit Billionen von Parametern zu realisieren. NVIDIA GB200 wird zuerst mit NVIDIA DGX™ Cloud in Google Cloud verfügbar sein.
NVIDIA bietet einen umfassenden, leistungsoptimierten Softwarestack direkt im Google Cloud Marketplace, um das volle Potenzial der hochmodernen, mit NVIDIA Technik beschleunigten Infrastruktur zu erschließen und die Komplexität beim Entwickeln beschleunigter Lösungen in Google Cloud zu reduzieren. Dies senkt die Gesamtbetriebskosten durch verbesserte Leistung, vereinfachte Bereitstellung und optimierte Entwicklung.
WPP
NVIDIA DGX Cloud ist eine KI-Plattform, die Entwicklern dedizierten, skalierbaren Zugriff auf die neueste NVIDIA Architektur bietet und auf allen Ebenen gemeinsam mit Google Cloud entwickelt wurde. DGX Cloud wurde optimiert, um die bestmögliche Leistung für moderne KI-Workloads zu erzielen, und bietet direkten Zugang zu Experten von NVIDIA AI, die Sie bei der Maximierung der Ressourceneffizienz und -nutzung unterstützen. DGX Cloud ist derzeit auf Google Cloud verfügbar und NVIDIA Grace™ Blackwell ist demnächst verfügbar.
Foretellix
NVIDIA AI Enterprise ist eine Cloud-native Plattform, die die Entwicklung und Bereitstellung von KI-Lösungen, die für den Produktivbetrieb geeignet sind, rationalisiert, einschließlich generativer KI, Computer Vision, Sprach-KI und mehr. Benutzerfreundliche Microservices bieten die Leistungsfähigkeit optimierter Modelle mit Sicherheit, Support und Stabilität der Enterprise-Klasse, um einen reibungslosen Übergang vom Prototyp bis zum Produktivbetrieb für Unternehmen sicherzustellen, die KI nutzen.
NVIDIA NIM sind als Teil von NVIDIA AI Enterprise benutzerfreundliche Inferenz-Microservices zur Beschleunigung der Bereitstellung von KI-Anwendungen, die das Verstehen und Generieren natürlicher Sprache erfordern. Die NIM bieten Entwicklern Zugang zu standardkonformen APIs und ermöglichen so die Entwicklung leistungsstarker Copilots, Chatbots und KI-Assistenten. Sie erleichtern es IT- und DevOps-Teams, KI-Modelle in ihren eigenen verwalteten Umgebungen selbst zu hosten. NVIDIA NIM kann mit GCE, GKE oder Google Cloud Run bereitgestellt werden.
NVIDIA und Google Cloud arbeiten eng zusammen an Integrationen, die die Leistung der kompletten NVIDIA AI Plattform für eine Vielzahl von nativen Google-Cloud-Services bereitstellen und Entwicklern somit die Flexibilität bieten, den gewünschten Abstraktionsgrad zu wählen. Mit diesen Integrationen können Google-Cloud-Kunden die unternehmenstaugliche Leistung der NVIDIA AI Software und die Rechenleistung von NVIDIA GPUs kombinieren, um die Anwendungsleistung innerhalb der Google-Cloud-Services zu maximieren, mit denen sie bereits vertraut sind.
Kombinieren Sie die Leistung der NVIDIA AI Plattform mit der Flexibilität und Skalierbarkeit von GKE, um das Trainieren von generativer KI und die Inferenz sowie andere rechenintensive Workloads effizient zu verwalten und zu skalieren. Die On-Demand-Bereitstellung, automatisierte Skalierung, Unterstützung für NVIDIA Mehr-Instanzen-GPU (MIG) und GPU-Time-Sharing-Funktionen von GKE sorgen für eine optimale Ressourcenauslastung. Dies minimiert die Betriebskosten und bietet gleichzeitig die notwendige Rechenleistung für anspruchsvolle KI-Workloads.
Kombinieren Sie die Leistung von NVIDIA-beschleunigtem Computing mit Vertex AI von Google Cloud, einer vollständig verwalteten, vereinheitlichten MLOps-Plattform für die Entwicklung, Bereitstellung und Skalierung von KI-Modellen im Produktivbetrieb. Nutzen Sie die neuesten NVIDIA GPUs und NVIDIA AI Software wie Triton™ Inference Server in Vertex AI Training, Prediction, Pipelines und Notebooks, um die Entwicklung und Bereitstellung von generativer KI zu beschleunigen, ohne die Komplexität der Infrastrukturverwaltung.
Nutzen Sie den NVIDIA RAPIDS™ Accelerator für Spark, um Apache-Spark- und Dask-Workloads in Dataproc zu beschleunigen, dem vollständig verwalteten Datenverarbeitungsdienst von Google Cloud – ohne Codeänderungen. Dies ermöglicht schnellere Datenverarbeitung, schnelleres ETL (Extrahieren, Transformieren und Laden) und schnellere Pipelines für maschinelles Lernen bei gleichzeitig deutlich geringeren Infrastrukturkosten. Mit dem RAPIDS Accelerator für Spark können Anwender auch Batch-Workloads innerhalb von Dataproc Serverless beschleunigen, ohne Cluster bereitstellen zu müssen.
Beschleunigen Sie auf maschinellem Lernen basierende Inferenz mit NVIDIA AI und Google Cloud Dataflow, einem verwalteten Dienst zur Ausführung vielfältiger Datenverarbeitungsmuster, einschließlich Streaming und Batch-Analyse. Nutzer können die Inferenzleistung von KI-Modellen mithilfe der Integration von NVIDIA TensorRT in das Apache Beam SDK optimieren und komplexe Inferenzszenarien innerhalb einer Datenverarbeitungspipeline mit NVIDIA GPUs, die in Dataflow unterstützt werden, beschleunigen.
Beschleunigen Sie die Bereitstellung generativer KI mit NVIDIA NIM in Google Cloud Run, einer vollständig verwalteten, serverlosen Rechenplattform für die Bereitstellung von Containern in der Infrastruktur von Google Cloud. Die Unterstützung von NVIDIA GPUs in Cloud Run ermöglicht es Anwendern, NIM zu nutzen, um die Leistung zu optimieren und die Bereitstellung von Gen-KI-Modellen für den Produktivbetrieb in einer serverlosen Umgebung mit abstrahierter Infrastrukturverwaltung zu beschleunigen.
Mit dem Dynamic Workload Scheduler erhalten Sie für kurzzeitige Workloads wie KI-Training, -Feinabstimmung und -Experimente einfachen Zugriff auf die Kapazität von NVIDIA GPUs in Google Cloud. Dank der flexiblen Reservierung und präzise dimensionierten Bereitstellung erhalten Anwender Zugriff auf die von ihnen benötigten Rechenressourcen in Diensten wie GKE, Vertex AI und Batch, wobei gleichzeitig die Ressourcennutzung verbessert und die Kosten für die Ausführung von KI-Workloads optimiert werden.
NVIDIA arbeitet mit Google zusammen, um Gemma zu realisieren. Dabei handelt es sich um eine auf neue Weise optimierte Familie offener Modelle, die auf der Grundlage derselben Forschung und Technik entwickelt wurde, die für die Gemini-Modelle verwendet wurde. Eine optimierte Version mit TensorRT-LLM ermöglicht es Benutzern, mit lediglich einem Desktop-PC mit NVIDIA RTX™ GPU, mit LLMs zu entwickeln.
RAPIDS cuDF ist jetzt in Google Colab integriert. Entwickler können pandas-Code in Google-Colab-GPU-Instanzen sofort um das bis zu 50-Fache beschleunigen und pandas bei wachsenden Datenmengen weiterhin verwenden, ohne Leistungseinbußen.
Das NVIDIA Inception-Programm unterstützt Start-ups bei der Beschleunigung von Innovationen mithilfe von Entwicklerressourcen und -schulungen, Zugang zu Cloud-Credits, exklusiven Preisen für NVIDIA Software und Hardware sowie Möglichkeiten zur Kommunikation mit der VC-Community.
NVIDIA-Datenschutzrichtlinie