NVIDIA ha aperto la strada all'accelerazione del calcolo per spingere i confini dell'innovazione di sviluppatori, designer e creatori di tutto il mondo e trasformare le più grandi industrie del mondo. L'elaborazione accelerata NVIDIA, combinata con la flessibilità, la portata globale e la scalabilità di Google Cloud, accelera il tempo di soluzione e riduce il TCO dell'infrastruttura per carichi di lavoro computazionali intensivi come l'IA generativa, l'analisi dei dati, il calcolo ad alte prestazioni (HPC), la grafica e i giochi ovunque siano necessari.
NVIDIA e Google Cloud collaborano su ogni livello dello stack di IA generativa, fornendo accesso a infrastrutture di nuova generazione, software di livello aziendale e microservizi di inferenza, ottimizzando i modelli di base per accelerare il tempo dal prototipo alla distribuzione in produzione.
NVIDIA e Google Cloud hanno unito le forze per offrire soluzioni all’avanguardia di analisi dei dati, consentendo alle aziende di ottenere preziose informazioni da enormi set di dati e di sbloccare nuove possibilità con processi decisionali e innovazione basati sui dati.
La piattaforma di calcolo accelerato NVIDIA su Google Cloud aiuta sviluppatori, scienziati, ingegneri e ricercatori ad affrontare carichi di lavoro complessi in settori come le scienze della vita, la modellazione climatica, la produzione, l'energia, le simulazioni quantistiche e i servizi finanziari.
Leggi come Let’s Enhance, una startup leader nel settore della visione artificiale, utilizza la piattaforma NVIDIA AI su Google Kubernetes Engine (GKE) per implementare il servizio di fotoritocco basato sull’IA in produzione, aumentando la produttività dell’80% e riducendo i costi del 34%.
Scopri come Writer, una piattaforma di IA generativa full-stack per aziende, sfrutta le GPU NVIDIA H100 e L4 Tensor Core su GKE con il framework NVIDIA NeMo™ e TensorRT™-LLM per formare e distribuire oltre 17 modelli di linguaggio di grandi dimensioni (LLM) che possono essere ampliati fino a 70 miliardi di parametri.
Sfruttando la potenza dei microservizi di inferenza NVIDIA NIM™ su GKE con le GPU NVIDIA, LiveX AI ha ottenuto un aumento di 6,1 volte della velocità media dei token. Questo miglioramento consente a LiveX AI di offrire esperienze personalizzate ai clienti in tempo reale, tra cui un'assistenza clienti senza soluzione di continuità, consigli sui prodotti istantanei e resi ridotti.
Scegli tra un ampio portafoglio di GPU NVIDIA su Google Compute Engine (GCE) per accelerare un'ampia gamma di carichi di lavoro ad alta intensità di calcolo, tra cui training LLM distribuito, inferenza di IA in tempo reale, analisi ad alta intensità di dati su framework di big data, simulazioni scientifiche e modellazione in HPC e rendering di grafica 3D fotorealistica e ambienti virtuali immersivi.
La Google Cloud A3 VM è alimentata da otto GPU NVIDIA H100 Tensor Core ed è ideale per la formazione e il servizio di LLM e carichi di lavoro di IA generativa. La A3 Mega VM offre il doppio della larghezza di banda di rete GPU-to-GPU della A3 VM ed è ideale per il training di IA distribuito e i carichi di lavoro di inferenza.
La VM Google Cloud G2 offre l'accesso a una, due, quattro o otto GPU NVIDIA L4 Tensor Core ed è ideale per accelerare un'ampia gamma di carichi di lavoro, tra cui inferenza di IA generativa, elaborazione video di IA, HPC, rendering grafico e visualizzazione.
Google Cloud sarà tra i primi fornitori di servizi cloud a offrire la piattaforma NVIDIA Blackwell in due configurazioni: NVIDIA GB200 NVL72 e HGX™ B200, per consentire una nuova era di elaborazione con inferenza LLM in tempo reale e prestazioni di formazione su larga scala per modelli in scala con miliardi di parametri. NVIDIA GB200 sarà disponibile per la prima volta con NVIDIA DGX™ Cloud su Google Cloud.
NVIDIA offre uno stack software completo e ottimizzato per le prestazioni direttamente su Google Cloud Marketplace per sfruttare al massimo il potenziale dell'infrastruttura accelerata NVIDIA all'avanguardia e ridurre la complessità della creazione di soluzioni accelerate su Google Cloud. Questo riduce il TCO attraverso prestazioni migliorate, implementazione semplificata e sviluppo ottimizzato.
WPP
NVIDIA DGX Cloud è una piattaforma di IA che offre agli sviluppatori un accesso dedicato e scalabile alla più recente architettura NVIDIA, co-progettata a ogni livello con Google Cloud. Ottimizzata per offrire le massime prestazioni per i carichi di lavoro di IA odierni, DGX Cloud include l'accesso diretto agli esperti di NVIDIA AI che aiutano a massimizzare l'efficienza e l'utilizzo delle risorse. DGX Cloud è attualmente disponibile su Google Cloud, mentre presto sarà disponibile NVIDIA Grace™ Blackwell.
Foretellix
NVIDIA AI Enterprise è una piattaforma cloud nativa che semplifica lo sviluppo e l'implementazione di soluzioni di IA di livello produttivo, tra cui IA generativa, visione artificiale, IA vocale e altro ancora. I microservizi di facile utilizzo offrono prestazioni ottimizzate del modello con sicurezza, supporto e stabilità di livello enterprise per garantire una transizione fluida dal prototipo alla produzione per le aziende che gestiscono le loro attività con l'IA.
NVIDIA NIM, parte di NVIDIA AI Enterprise, è un set di microservizi di inferenza di facile utilizzo per accelerare la distribuzione di applicazioni di IA che richiedono la comprensione e la generazione di linguaggio naturale. Offrendo agli sviluppatori l’accesso alle API standard del settore, NIM consente la creazione di potenti copiloti, chatbot e assistenti di IA, rendendo più facile per i team IT e DevOps l’auto-hosting di modelli di IA nei propri ambienti gestiti. NVIDIA NIM può essere implementato su GCE, GKE o Google Cloud Run.
NVIDIA e Google Cloud collaborano a stretto contatto per integrare la potenza della piattaforma NVIDIA AI full-stack con una vasta gamma di servizi Google Cloud nativi, offrendo agli sviluppatori la flessibilità di scegliere il livello di astrazione di cui hanno bisogno. Grazie a queste integrazioni, i clienti di Google Cloud possono combinare la potenza del software di NVIDIA AI di livello enterprise e la potenza di calcolo delle GPU NVIDIA per massimizzare le prestazioni delle applicazioni all’interno dei servizi Google Cloud con cui hanno già familiarità.
Combina la potenza della piattaforma NVIDIA AI con la flessibilità e la scalabilità di GKE per gestire e scalare in modo efficiente il training e l'inferenza dell'IA generativa e altri carichi di lavoro ad alta intensità di calcolo. Il provisioning on-demand di GKE, il ridimensionamento automatizzato, il supporto per GPU NVIDIA Multi-Instance (MIG) e le funzionalità di time-sharing delle GPU garantiscono un utilizzo ottimale delle risorse. Ciò riduce al minimo i costi operativi fornendo al contempo la potenza di calcolo necessaria per i carichi di lavoro impegnativi di IA.
Combina la potenza dell'elaborazione accelerata di NVIDIA con Vertex AI di Google Cloud, una piattaforma MLOps unificata e completamente gestita per la creazione, la distribuzione e la scalabilità di modelli di IA in produzione. Sfrutta le più recenti GPU NVIDIA e i software di NVIDIA IA, come Triton™ Inference Server, all'interno di Vertex AI Training, Prediction, Pipelines e Notebook per accelerare lo sviluppo e l'implementazione dell'IA generativa senza le complessità della gestione dell'infrastruttura.
Sfrutta l'Acceleratore NVIDIA RAPIDS™ per Spark per accelerare i carichi di lavoro Apache Spark e Dask su Dataproc, il servizio di elaborazione dati completamente gestito di Google Cloud, senza modifiche al codice. Questo permette di effettuare operazioni più veloci di elaborazione dei dati, estrazione, trasformazione e caricamento (ETL) e pipeline di apprendimento automatico, riducendo sostanzialmente i costi dell'infrastruttura. Con l'Acceleratore RAPIDS per Spark, gli utenti possono anche velocizzare i carichi di lavoro in batch all'interno di Dataproc Serverless senza il provisioning dei cluster.
Accelera l'inferenza dell'apprendimento automatico con NVIDIA AI su Google Cloud Dataflow, un servizio gestito per l'esecuzione di un'ampia gamma di modelli di elaborazione dei dati, inclusi gli streaming e le analisi in batch. Gli utenti possono ottimizzare le prestazioni di inferenza dei modelli di IA utilizzando l'integrazione di NVIDIA TensorRT con Apache Beam SDK e velocizzare complessi scenari di inferenza all'interno di una pipeline di elaborazione dei dati utilizzando le GPU NVIDIA supportate in Dataflow.
Accelera il percorso per implementare l'IA generativa più velocemente grazie a NVIDIA NIM su Google Cloud Run, una piattaforma di elaborazione senza server completamente gestita per l'implementazione di container sull'infrastruttura di Google Cloud. Grazie al supporto delle GPU NVIDIA in Cloud Run, gli utenti possono sfruttare NIM per ottimizzare le prestazioni e accelerare la distribuzione dei modelli di IA generativa in un ambiente senza server che elimina la gestione dell’infrastruttura.
Accedi facilmente alla capacità della GPU NVIDIA su Google Cloud per carichi di lavoro di breve durata, come il training per IA, l'ottimizzazione e la sperimentazione, utilizzando il Dynamic Workload Scheduler. Grazie alla
NVIDIA sta collaborando con Google per il lancio di Gemma, una nuova famiglia di modelli aperti ottimizzati costruiti dalla stessa ricerca e tecnologia utilizzata per creare i modelli Gemini. Una versione ottimizzata con TensorRT-LLM consente agli utenti di sviluppare con LLM utilizzando solo un desktop con una GPU NVIDIA RTX™.
RAPIDS cuDF è ora integrato in Google Colab. Gli sviluppatori possono accelerare istantaneamente il codice pandas fino a 50 volte sulle istanze GPU Google Colab e continuare a utilizzare pandas man mano che i dati crescono, senza sacrificare le prestazioni.
Il programma NVIDIA Inception aiuta le startup ad accelerare l’innovazione con risorse e training per gli sviluppatori, accesso ai crediti cloud, prezzi esclusivi per software e hardware NVIDIA e opportunità di esposizione alla community VC.
Informativa sulla privacy NVIDIA