NVIDIA a été le pionnier de l'informatique accélérée en repoussant les limites de l'innovation pour les développeurs, les concepteurs et les créateurs du monde entier et transformer les plus grands secteurs au monde. L'informatique accélérée NVIDIA, associée à la flexibilité, à la portée mondiale et à l'échelle de Google Cloud, accélère la création de solutions et réduit le TCO de l'infrastructure des charges de travail exigeantes en calcul, telles que l'IA générative, l'analyse de données, le calcul haute performance (HPC), les graphiques et les jeux vidéo, quel que soit leur lieu d'exécution.
NVIDIA et Google Cloud collaborent sur chaque couche de la pile d’IA générative, en permettant d'accéder à une infrastructure de nouvelle génération, à des logiciels d’entreprise et à des microservices d’inférence, et en optimisant les modèles de base pour accélérer les délais de déploiement du prototype à la production.
NVIDIA et Google Cloud ont uni leurs forces pour proposer des solutions d’analyse de données de pointe, ce qui permet aux entreprises d’obtenir des informations précieuses à partir d'ensembles de données énormes et d'ouvrir de nouvelles possibilités grâce à des prises de décision et à des innovations qui s'appuient sur des données.
La plate-forme de calcul accéléré NVIDIA sur Google Cloud permet aux développeurs, aux scientifiques, aux ingénieurs et aux chercheurs de gérer des charges de travail complexes dans des domaines tels que les sciences de la vie, la modélisation climatique, la fabrication, l'énergie, les simulations quantiques et les services financiers.
Découvrez comment Let’s Enhance, une startup de premier plan spécialisée dans la visionique, utilise la plate-forme d'IA NVIDIA sur Google Kubernetes Engine (GKE) pour déployer son service de retouche photographique piloté par l’IA en production, ce qui lui a permis d'accroître sa production de 80 % et de réduire les coûts de 34 %.
Découvrez comment Writer, une plate-forme d'IA générative complète pour les entreprises, exploite les GPU NVIDIA H100 et L4 Tensor Core sur GKE avec le framework NVIDIA NeMo™ et TensorRT™-LLM pour entraîner et déployer plus de 17 grands modèles de langage (LLM) pouvant atteindre 70 milliards de paramètres.
En tirant parti de la puissance des microservices d'inférence NIM™ NVIDIA sur GKE avec des GPU NVIDIA, LiveX AI est parvenu à multiplier par 6,1 la vitesse moyenne des jetons. Cette amélioration permet à LiveX AI de proposer aux clients des expériences personnalisées en temps réel, notamment une assistance client transparente, des recommandations de produits instantanées et des retours réduits de produits.
Choisissez parmi le portefeuille étendu des GPU NVIDIA les plus récents sur Google Compute Engine (GCE) pour accélérer un large éventail de charges de travail exigeantes en calcul, notamment l'entraînement distribué des LLM, l'inférence d'IA en temps réel, l'analyse de données intensive sur des infrastructures de Big Data, les simulations et la modélisation scientifiques en HPC, et le rendu photoréaliste de graphismes 3D et d'environnements virtuels immersifs.
La machine virtuelle Google Cloud A3 est équipée de huit GPU NVIDIA H100 Tensor Core et est idéale pour l'entraînement et la gestion de LLM et de charges de travail d'IA générative. La VM Mega A3 offre une bande passante réseau GPU à GPU deux fois plus étendue que celle de la VM A3 et est idéale pour l'entraînement de l'IA distribué et les charges de travail d'inférence.
La VM Google Cloud G2 permet d'accéder à un, deux, quatre ou huit GPU NVIDIA L4 Tensor Core et est idéale pour accélérer un large éventail de charges de travail, y compris des charges de travail d'inférence de l'IA générative, de traitement vidéo piloté par l'IA, de HPC, de rendu graphique et de visualisation.
Google Cloud sera parmi les premiers fournisseurs de Cloud à proposer la plate-forme NVIDIA Blackwell dans deux configurations, NVIDIA GB200 NVL72 et HGXTM B200, pour ouvrir une nouvelle ère informatique avec une inférence LLM en temps réel et des performances d’entraînement à grande échelle pour des modèles pouvant contenir des milliers de milliards de paramètres. Le modèle NVIDIA GB200 sera le premier disponible, suivi du modèle NVIDIA DGX™ Cloud sur Google Cloud.
NVIDIA propose une pile logicielle complète aux performances optimisées directement sur Google Cloud Marketplace afin de libérer tout le potentiel de l'infrastructure accélérée de pointe NVIDIA et de réduire la complexité liée à la création de solutions accélérées sur Google Cloud. Cela permet de réduire le TCO grâce à des performances améliorées, un déploiement simplifié et un développement rationalisé.
WPP
NVIDIA DGX Cloud est une plate-forme d’IA qui offre aux développeurs un accès dédié et évolutif à la dernière architecture NVIDIA, dont chaque couche a été conçue en collaboration avec Google Cloud. Optimisé pour offrir les meilleures performances sur les charges de travail d'IA actuelles, DGX Cloud offre un accès direct aux experts en IA de NVIDIA afin d'optimiser l'efficacité et l'utilisation des ressources. DGX Cloud est actuellement disponible sur Google Cloud, et bientôt sur NVIDIA Grace™ Blackwell.
Foretellix
NVIDIA AI Enterprise est une plate-forme native du Cloud qui rationalise le développement et le déploiement de solutions d'IA de production, notamment l'IA générative, la visionique, l'IA vocale, et plus encore. Les microservices faciles d'emploi offrent des modèles aux performances optimisées avec une sécurité, une assistance et une stabilité de niveau entreprise permettant d'assurer une transition en douceur entre le prototype et la production dans les entreprises qui s'appuient sur l'IA pour gérer leurs activités.
Les microservices NIM NVIDIA, qui font partie de NVIDIA AI Enterprise, sont un ensemble de microservices d'inférence faciles d'emploi conçus pour accélérer le déploiement d'applications d'IA nécessitant la compréhension et la génération du langage naturel. En permettant aux développeurs d'accéder aux API standard du secteur, les microservices NIM permettent de créer de puissants copilotes, chatbots et assistants basés sur l'IA, tout en permettant facilement aux équipes informatiques et DevOps d'héberger des modèles d'IA dans leurs propres environnements gérés. Les microservices NIM NVIDIA peuvent être déployés sur GCE, GKE ou Google Cloud Run.
NVIDIA et Google Cloud collaborent étroitement sur des intégrations qui apportent la puissance de la plateforme d'IA de NVIDIA à un large éventail de services natifs de Google Cloud, offrant aux développeurs la flexibilité de choisir le niveau d'abstraction dont ils ont besoin. Grâce à ces intégrations, les clients de Google Cloud peuvent associer la puissance des logiciels d’IA NVIDIA de niveau entreprise à la puissance de calcul des GPU NVIDIA pour maximiser les performances des applications au sein des services Google Cloud qu’ils connaissent déjà.
Associez la puissance de la plate-forme d'IA NVIDIA à la flexibilité et l'évolutivité de GKE pour gérer et mettre à l'échelle efficacement l'entraînement et l'inférence de l'IA générative et d'autres charges de travail à forte intensité de calcul. Le provisionnement à la demande, la mise à l'échelle automatisée, la prise en charge des GPU multi-instances (MIG) NVIDIA et les capacités de partage de temps des GPU de GKE garantissent une utilisation optimale des ressources. Cela minimise les coûts opérationnels tout en fournissant la puissance de calcul nécessaire pour les charges de travail d'IA exigeantes.
Associez la puissance de l'informatique accélérée NVIDIA avec Vertex AI de Google Cloud, une plate-forme MLOps unifiée et entièrement gérée conçue pour créer, déployer et mettre à l'échelle des modèles d'IA en production. Tirez parti des derniers GPU et logiciels d’IA de NVIDIA, tels que le serveur d'inférence Triton™, dans les entraînement, les prévisions, les pipelines et les notebooks Vertex AI pour accélérer le développement et le déploiement de l'IA générative, sans la complexité associée à la gestion de l'infrastructure.
Tirez parti de l'accélérateur NVIDIA RAPIDS™ pour Spark pour accélérer les charges de travail Apache Spark et Dask sur Dataproc, le service de traitement de données entièrement géré de Google Cloud, sans avoir à modifier de code. Cela permet de traiter plus rapidement les données, les opérations d'extraction, de transformation et de chargement (ETL) et les pipelines de machine learning tout en réduisant considérablement les coûts d'infrastructure. Avec l'accélérateur RAPIDS pour Spark, les utilisateurs peuvent également accélérer les charges de travail par lots au sein de Dataproc Serverless sans provisionner de clusters.
Accélérez l'inférence du machine learning avec les solutions d’IA de NVIDIA sur Google Cloud Dataflow, un service géré permettant d'exécuter une grande variété de modèles de traitement de données, dont le streaming et l'analyse par lots. Les utilisateurs peuvent optimiser les performances d'inférence des modèles d'IA en utilisant l'intégration de NVIDIA TensorRT avec le SDK Apache Beam et accélérer les scénarios d'inférence complexes dans un pipeline de traitement de données utilisant les GPU NVIDIA pris en charge dans Dataflow.
Accélérez le déploiement de l'IA générative avec les microservices NIM NVIDIA sur Google Cloud Run, une plateforme de calcul entièrement gérée et sans serveur conçue pour déployer des conteneurs sur l'infrastructure de Google Cloud. La prise en charge des GPU NVIDIA dans Cloud Run permet aux utilisateurs de tirer parti des microservices NIM pour optimiser les performances et accélérer le déploiement de modèles d’IA générative en production dans un environnement sans serveur, ce qui permet de s'affranchir de la gestion de l’infrastructure.
Accédez facilement à la capacité des GPU NVIDIA sur Google Cloud pour les charges de travail de courte durée, telles que l'entraînement de l'IA, les réglages et l'expérimentation, à l'aide du Planificateur de charges de travail dynamique. La planification flexible et le provisionnement atomique permettent aux utilisateurs d'accéder aux ressources de calcul dont ils ont besoin au sein de services tels que GKE, Vertex AI et Batch, tout en améliorant l'utilisation de leurs ressources et en optimisant les coûts associés à l'exécution des charges de travail d'IA.
NVIDIA collabore avec Google pour lancer Gemma, une nouvelle famille de modèles ouverts optimisés, créés à partir des mêmes recherches et des mêmes technologies que les modèles Gemini. Une version optimisée avec TensorRT-LLM permet aux utilisateurs de développer avec des LLM en utilisant uniquement un ordinateur de bureau équipé d'un GPU NVIDIA RTX™.
RAPIDS cuDF est désormais intégré à Google Colab. Les développeurs peuvent accélérer instantanément le code panda jusqu'à 50 fois sur les instances de GPU Google Colab et continuer à utiliser les pandas à mesure que le volume de données augmente, sans sacrifier les performances.
Le programme NVIDIA Inception aide les startups à accélérer l'innovation avec des ressources et des formations pour les développeurs, un accès aux crédits Cloud, des tarifs préférentiels sur les logiciels et le matériel NVIDIA, et la possibilité d'entrer en contact avec la communauté de l'informatique virtuelle.
Déclaration de confidentialité de NVIDIA