Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA fue pionera en la computación acelerada para ampliar los límites de la innovación para desarrolladores, diseñadores y creadores a nivel global y transformar las industrias más grandes del mundo. La computación acelerada por NVIDIA, combinada con la flexibilidad, el alcance global y la escala de Google Cloud, acelera el tiempo de obtención de soluciones y reduce el TCO de la infraestructura en cargas de trabajo computacionales intensivas, como la IA generativa, el análisis de datos, la HPC, los gráficos y el gaming donde sea que necesiten ejecutarse.
NVIDIA y Google Cloud se asocian en todas las capas de la pila de IA generativa, lo que proporciona acceso a una infraestructura de última generación, software de nivel empresarial y microservicios de inferencia, además optimiza modelos de base para acelerar el tiempo desde el prototipo hasta la implementación de producción.
NVIDIA y Google Cloud unieron fuerzas para ofrecer soluciones de análisis de datos de vanguardia, lo que les permite a las empresas obtener información valiosa de conjuntos de datos masivos y descubrir nuevas posibilidades con la toma de decisiones y la innovación basadas en datos.
La plataforma de computación acelerada de NVIDIA en Google Cloud les ayuda a desarrolladores, científicos, ingenieros e investigadores a enfrentarse a cargas de trabajo complejas en campos como las ciencias de la vida, el modelado climático, la manufactura, la energía, las simulaciones cuánticas y los servicios financieros.
Lee cómo Let’s Enhance, un emprendimiento líder en visión por computadora, usa la plataforma de IA de NVIDIA en Google Kubernetes Engine (GKE) para implementar su servicio de edición de fotos con IA en producción, lo que aumenta el desempeño en un 80% y reduce los costos en un 34%.
Descubre cómo Writer, una plataforma de IA generativa de pila completa para empresas, aprovecha las GPU de L4 Tensor Core y NVIDIA H100 en GKE con el framework NVIDIA NeMo™ y TensorRT™-LLM para entrenar e implementar más de 17 grandes modelos de lenguaje (LLM) que escalan a hasta 70 mil millones de parámetros.
Al aprovechar el poder de los microservicios de inferencia NVIDIA NIM™ en GKE con las GPU de NVIDIA, LiveX.AI ha logrado un aumento de 6,1 veces en la velocidad promedio de token. Esta mejora le permite a LiveX.AI ofrecerles experiencias personalizadas a los clientes en tiempo real, que incluye asistencia al cliente, recomendaciones instantáneas de productos y menos devoluciones.
Selecciona de una amplia cartera de las más recientes GPU de NVIDIA en Google Compute Engine (GCE) para acelerar una gran gama de cargas de trabajo de computación intensiva, incluidos el entrenamiento de grandes modelos de lenguaje (LLM) distribuidos, la inferencia de IA en tiempo real, el análisis intensivo de datos en frameworks de big data, simulaciones y modelado científico en computación de alto desempeño (HPC), y renderización de gráficos 3D fotorrealistas y de entornos virtuales inmersivos.
La máquina virtual A3 de Google Cloud está equipada con ocho GPU H100 Tensor Core de NVIDIA, y es ideal para entrenar y servir a LLM y cargas de trabajo de IA generativa. La megamáquina virtual A3 ofrece el doble de ancho de banda de red de GPU a GPU que la máquina virtual A3, y es ideal para entrenar IA distribuida y para cargas de trabajo de inferencia.
La máquina virtual (VM) G2 de Google Cloud ofrece acceso a una, dos, cuatro u ocho GPU L4 Tensor Core de NVIDIA y es ideal para acelerar un diverso conjunto de cargas de trabajo, incluidas la inferencia de IA generativa, el procesamiento de video por IA, HPC, renderizado de gráficos y visualización.
Google Cloud se encuentra entre los primeros proveedores de nube en ofrecer la plataforma NVIDIA Blackwell en dos configuraciones: NVIDIA GB200 NVL72 y HGX™ B200, para habilitar una nueva era de computación con inferencia de LLM en tiempo real y desempeño de entrenamiento a escala masiva para modelos escalables de billones de parámetros. NVIDIA GB200 primero estará disponible con NVIDIA DGX™ Cloud en Google Cloud.
NVIDIA ofrece una pila de software completa y optimizada en desempeño directamente en Google Cloud Marketplace para desencadenar todo el potencial de la infraestructura acelerada de vanguardia de NVIDIA y reducir la complejidad en la creación de soluciones aceleradas en Google Cloud. Esto reduce el costo total de propiedad (TCO) mediante un desempeño mejorado, una implementación simplificada y un desarrollo optimizado.
WPP
NVIDIA DGX Cloud es una plataforma de IA que ofrece acceso escalable y dedicado a la más reciente arquitectura de NVIDIA para desarrolladores, y cada capa es desarrollada en conjunto con Google Cloud. DGX Cloud, optimizada para ofrecer el mayor desempeño para las cargas de trabajo de IA de la actualidad, incluye acceso directo a expertos de IA de NVIDIA que ayudan a maximizar la eficiencia y el uso de los recursos. DGX Cloud está actualmente disponible en Google Cloud y próximamente NVIDIA Grace™ Blackwell también lo estará.
Foretellix
NVIDIA AI Enterprise es una plataforma nativa de la nube que agiliza el desarrollo y la implementación de soluciones de IA de grado de producción, incluidas la IA generativa, la visión por computadora, la IA del habla y más. Los microservicios fáciles de usar proporcionan un desempeño optimizado del modelo con seguridad, compatibilidad y estabilidad de nivel empresarial para garantizar una transición sin problemas del prototipo a la producción en empresas que realizan sus negocios con IA.
NVIDIA NIM, parte de NVIDIA AI Enterprise, es un conjunto de microservicios de inferencia fáciles de usar para acelerar la implementación de aplicaciones de IA que requieren comprensión y generación de lenguaje natural. Al ofrecerles a los desarrolladores acceso a API estándares de la industria, NIM permite la creación de potentes copilots, chatbots y asistentes de IA, a la vez que les facilita a los equipos de TI y de DevOps el autoalojamiento de modelos de IA en sus propios entornos administrados. NVIDIA NIM se puede implementar en GCE, GKE o Google Cloud Run.
NVIDIA y Google Cloud colaboran estrechamente en integraciones que llevan el poder de la plataforma de pila completa de IA de NVIDIA a una amplia gama de servicios nativos de Google Cloud, lo que les brinda a los desarrolladores la flexibilidad para elegir el nivel de abstracción que necesitan. Con estas integraciones, los clientes de Google Cloud pueden combinar el poder del software de nivel empresarial con IA de NVIDIA y el poder computacional de las GPU NVIDIA para maximizar el desempeño de las aplicaciones en los servicios de Google Cloud con los que ya están familiarizados.
Combina el poder de la plataforma de IA de NVIDIA con la flexibilidad y la escalabilidad de GKE para administrar y escalar de manera eficiente el entrenamiento y la inferencia de IA generativa y de otras cargas de trabajo de computación intensiva. El aprovisionamiento a pedido de GKE, el escalamiento automatizado, la compatibilidad con GPU de instancias múltiples (MIG) de NVIDIA y las capacidades de tiempo compartido de GPU garantizan un uso óptimo de los recursos. Esto minimiza los costos operativos y proporciona la potencia computacional necesaria para las demandantes cargas de trabajo de IA.
Combina la potencia de la computación acelerada por NVIDIA con Vertex AI de Google Cloud, una plataforma MLOps unificada y totalmente administrada para crear, implementar y escalar modelos de IA en producción. Aprovecha las últimas GPU de NVIDIA y el software de IA de NVIDIA, como el Servidor de Inferencia Triton™, en el entrenamiento, la predicción, los pipelines y las notas de Vertex AI para acelerar el desarrollo y la implementación de IA generativa sin las complejidades de gestionar infraestructura.
Aprovecha NVIDIA RAPIDS™ Accelerator para Spark para acelerar las cargas de trabajo de Apache Spark y Dask en Dataproc, el servicio de procesamiento de datos totalmente administrado de Google Cloud, sin cambios de código. Esto permite operaciones más rápidas de procesamiento, extracción, transformación y carga (ETL) de datos, así como pipelines de machine learning, a la vez que reduce sustancialmente los costos de infraestructura. Con el RAPIDS Accelerator para Spark, los usuarios también pueden acelerar las cargas de trabajo por lotes dentro de Dataproc Serverless sin aprovisionar clústeres.
Acelera la inferencia del machine learning con la IA de NVIDIA en Google Cloud Dataflow, un servicio gestionado para ejecutar una amplia variedad de patrones de procesamiento de datos, incluidos los análisis de streaming y por lotes. Los usuarios pueden optimizar el rendimiento de inferencia de los modelos de IA mediante el uso de la integración de NVIDIA TensorRT con SDK Apache Beam y acelerar escenarios de inferencia complejos dentro en un pipeline de procesamiento de datos mediante el uso de las GPU de NVIDIA compatibles con el flujo de datos.
Acelera el camino para implementar la IA generativa con NVIDIA NIM en Google Cloud Run, una plataforma de cómputo sin servidor totalmente administrada para implementar contenedores en la infraestructura de Google Cloud. Mediante la compatibilidad de las GPU de NVIDIA en Cloud Run, los usuarios pueden aprovechar NIM para optimizar el desempeño y acelerar la implementación de modelos de IA generativa en producción en un entorno sin servidores que abstrae la gestión de la infraestructura.
Accede con facilidad a la capacidad de GPU de NVIDIA en Google Cloud para cargas de trabajo de corta duración, como entrenamiento de IA, optimizaciones y experimentación con Dynamic Workload Scheduler. Con una programación flexible y un aprovisionamiento atómico, los usuarios pueden acceder a los recursos de cómputo que necesitan dentro de servicios como GKE, Vertex AI y Batch, al tiempo que mejoran la utilización de los recursos y optimizan los costos asociados con la ejecución de cargas de trabajo de IA.
NVIDIA está colaborando con Google para lanzar Gemma, una nueva familia optimizada de modelos abiertos construidos a partir de la misma investigación y tecnología usada para crear los modelos Gemini. Una versión optimizada con TensorRT-LLM les permite a los usuarios desarrollar con LLM desde únicamente una computadora de escritorio con una GPU NVIDIA RTX™.
RAPIDS cuDF ahora está integrado en Google Colab. Los desarrolladores pueden acelerar al instante el código de pandas hasta 50 veces en las instancias de GPU de Google Colab y seguir usando pandas a medida que crecen los datos, sin sacrificar el desempeño.
El programa NVIDIA Inception les ayuda a las startups a acelerar la innovación con recursos y capacitación para desarrolladores, acceso a créditos en la nube, precios exclusivos de software y hardware de NVIDIA, y oportunidades de exposición a la comunidad VC.
Política de Privacidad de NVIDIA