NVIDIA fue pionera en computación acelerada para superar los límites de la innovación para desarrolladores, diseñadores y creadores de todo el mundo, y para transformar los sectores más importantes del mundo. La computación acelerada de NVIDIA combinada con la flexibilidad, el alcance global y la escala de Google Cloud aceleran el tiempo hasta alcanzar las soluciones y reducen el coste total de propiedad de la infraestructura para cargas de trabajo intensivas en computación, como la IA generativa, el análisis de datos, la computación de alto rendimiento (HPC), los gráficos y los juegos dondequiera que necesiten ejecutarse.
NVIDIA y Google Cloud colaboran en todas las capas de la pila de IA generativa, proporcionando acceso a infraestructura de próxima generación, software de nivel empresarial y microservicios de inferencia, y optimizando los modelos básicos para acelerar el tiempo transcurrido desde el prototipo hasta la implementación de producción.
NVIDIA y Google Cloud han unido fuerzas para ofrecer soluciones de análisis de datos de vanguardia, que permiten a las empresas obtener información valiosa a partir de conjuntos de datos masivos y desbloquear nuevas posibilidades con la toma de decisiones e innovación basadas en datos.
La plataforma de computación acelerada de NVIDIA en Google Cloud ayuda a desarrolladores, científicos, ingenieros e investigadores a lidiar con cargas de trabajo complejas en campos como las ciencias de la vida, el modelado climático, la fabricación, la energía, las simulaciones cuánticas y los servicios financieros.
Lea cómo Let’s Enhance, una empresa emergente líder en visión por ordenador, utiliza la plataforma NVIDIA AI en Google Kubernetes Engine (GKE) para implementar su servicio de edición de fotos con IA en producción, aumentando el rendimiento en un 80 por ciento y reduciendo los costes en un 34 por ciento.
Descubra cómo Writer, una plataforma de IA generativa completa para empresas, aprovecha las GPU NVIDIA H100 y el núcleo L4 Tensor Core en GKE con el marco NVIDIA NeMo™ y TensorRT™-LLM para entrenar e implementar más de 17 modelos lingüísticos de gran tamaño (LLM) que escalan hasta 70 000 millones de parámetros.
Al aprovechar la potencia de los microservicios de inferencia NVIDIA NIM™ en GKE con las GPU de NVIDIA, LiveX AI ha multiplicado por 6,1 la velocidad media de los tokens. Esta mejora permite a LiveX AI ofrecer experiencias personalizadas a los clientes en tiempo real, incluida la atención al cliente perfecta, recomendaciones instantáneas de productos y devoluciones reducidas.
Seleccione entre una amplia variedad de las últimas GPU de NVIDIA en Google Compute Engine (GCE) para acelerar una amplia gama de cargas de trabajo de computación intensiva, incluida el entrenamiento de LLM distribuido, inferencia de IA en tiempo real, análisis intensivos en datos sobre entornos de trabajo de macrodatos, simulaciones científicas y modelado en HPC, y renderizado de gráficos 3D fotorrealistas y entornos virtuales inmersivos.
La máquina virtual de Google Cloud A3 está impulsada por ocho GPU NVIDIA H100 con núcleo Tensor, y es ideal para entrenar y dar servicio a los LLM y a las cargas de trabajo de IA generativa. La máquina virtual A3 Mega ofrece el doble de ancho de banda de red de GPU a GPU que la máquina virtual A3, y es ideal para cargas de trabajo de inferencia de entrenamiento distribuido de IA.
Las máquinas virtuales de Google Cloud G2 ofrecen acceso a una, dos, cuatro u ocho unidades GPU NVIDIA L4 con núcleo Tensor, y son ideales para acelerar una amplia gama de cargas de trabajo, incluida la inferencia de IA generativa, el procesamiento de vídeo con IA, HPC, el renderizado y la visualización de gráficos.
Google Cloud será uno de los primeros proveedores de nube en ofrecer la plataforma NVIDIA Blackwell en dos configuraciones: NVIDIA GB200 NVL72 y HGX™ B200, para permitir una nueva era de computación con inferencia de LLM en tiempo real y rendimiento de entrenamiento de grandes volúmenes de datos para modelos a escala de billones de parámetros. NVIDIA GB200 estará disponible primero con NVIDIA DGX™ Cloud en Google Cloud.
NVIDIA ofrece una pila de software completa y optimizada para el rendimiento directamente en Google Cloud Marketplace para liberar todo el potencial de la infraestructura acelerada de NVIDIA de vanguardia y reducir la complejidad de la creación de soluciones aceleradas en Google Cloud. Esto reduce el coste total de propiedad gracias a un rendimiento mejorado, una implementación simplificada y un desarrollo racionalizado.
WPP
NVIDIA DGX Cloud es una plataforma de IA que ofrece acceso escalable y dedicado a la última arquitectura de NVIDIA para desarrolladores, codiseñada en todas las capas con Google Cloud. Optimizada para ofrecer el mayor rendimiento para las cargas de trabajo de IA actuales, DGX Cloud incluye acceso directo a los expertos de NVIDIA AI que ayudan a maximizar la eficiencia y la utilización de los recursos. DGX Cloud está actualmente disponible en Google Cloud, y NVIDIA Grace™ Blackwell estará pronto disponible.
Foretellix
NVIDIA AI Enterprise es una plataforma nativa de la nube que agiliza el desarrollo y la implementación de soluciones de IA a nivel de producción, incluida la IA generativa, la visión informática, la IA de voz y mucho más. Los microservicios fáciles de usar proporcionan un rendimiento de modelo optimizado con seguridad, soporte y estabilidad de nivel empresarial para garantizar una transición sin problemas del prototipo a la producción para las empresas que dirigen sus negocios con IA.
NVIDIA NIM, que forma parte de NVIDIA AIEnterprise, es un conjunto de microservicios de inferencia fáciles de usar para acelerar la implementación de aplicaciones de IA que requieren comprensión y generación de lenguaje natural. Al ofrecer a los desarrolladores acceso a varias API estándar del sector, NIM permite la creación de potentes copilotos, chatbots y asistentes de IA, al tiempo que facilita a los equipos de TI y DevOps el autohospedaje de modelos de IA en sus propios entornos administrados. NVIDIA NIM se puede implementar en GCE, GKE o Google Cloud Run.
NVIDIA y Google Cloud colaboran estrechamente en integraciones que aportan la potencia de la plataforma completa de NVIDIA AI a una amplia gama de servicios nativos de Google Cloud, lo cual ofrece a los desarrolladores la flexibilidad necesaria para elegir el nivel de abstracción que necesitan. Con estas integraciones, los clientes de Google Cloud pueden combinar la potencia del software NVIDIA AI de nivel empresarial y la potencia computacional de las GPU de NVIDIA para maximizar el rendimiento de las aplicaciones dentro de los servicios de Google Cloud con los que ya están familiarizados.
Combine la potencia de la plataforma NVIDIA AI con la flexibilidad y escalabilidad de GKE para gestionar y escalar eficientemente el entrenamiento e inferencia de IA generativa y otras cargas de trabajo de computación intensiva. El aprovisionamiento bajo demanda, el escalado automatizado, la compatibilidad con GPU multiinstancia (MIG) de NVIDIA y las capacidades de tiempo compartido de GPU garantizan una utilización óptima de los recursos. Esto minimiza los costes operativos al tiempo que ofrece la potencia computacional necesaria para las cargas de trabajo de IA exigentes.
Combine la potencia de la computación acelerada de NVIDIA con Vertex AI de Google Cloud, una plataforma MLOps totalmente gestionada y unificada para crear, implementar y escalar modelos de IA en producción. Aproveche las últimas GPU NVIDIA y el software de NVIDIA AI, como el servidor de inferencia Triton™, en el contexto de entrenamiento, predicción, canalizaciones y cuadernos de Vertex AI para acelerar el desarrollo y la implementación de IA generativa sin las complejidades de la gestión de infraestructuras.
Aproveche el acelerador NVIDIA RAPIDS™ para Spark para acelerar las cargas de trabajo de Apache Spark y Dask en Dataproc, el servicio de procesamiento de datos totalmente gestionado de Google Cloud, sin cambios en el código. Esto permite procesar datos más rápido y realizar operaciones de extracción, transformación y carga (ETL), así como canalizaciones de aprendizaje automático, al tiempo que reduce sustancialmente los costes de infraestructura. Con el acelerador Rapids para Spark los usuarios también pueden acelerar las cargas de trabajo por lotes dentro de Dataproc Serverless sin necesidad de aprovisionar clústeres.
Acelere la inferencia de aprendizaje automático con NVIDIA AI en Dataflow de Google Cloud, un servicio gestionado para ejecutar una amplia variedad de patrones de procesamiento de datos, incluidos los análisis de transmisión y por lotes. Los usuarios pueden optimizar el rendimiento de inferencia de los modelos de IA utilizando la integración de NVIDIA TensorRT con el SDK de Apache Beam y acelerar los escenarios de inferencia complejos dentro de una canalización de procesamiento de datos utilizando unidades GPU NVIDIA compatibles con Dataflow.
Acelere el camino para implementar IA generativa más rápido con NVIDIA NIM en Google Cloud Run, una plataforma de computación sin servidor totalmente gestionada para implementar contenedores en la infraestructura de Google Cloud. Con soporte para las GPU NVIDIA en Cloud Run, los usuarios pueden aprovechar NIM para optimizar el rendimiento y acelerar la implementación de modelos de IA generativa en producción en un entorno sin servidor que minimiza al máximo la gestión de la infraestructura.
Obtenga fácil acceso a la
NVIDIA colabora con Google para lanzar Gemma, una familia de modelos abiertos recientemente optimizada creada a partir de la misma investigación y tecnología utilizada para crear los modelos Gemini. Una versión optimizada con TensorRT-LLM permite a los usuarios desarrollar con modelos LLM utilizando solo un escritorio con una GPU NVIDIA RTX™.
RAPIDS cuDF está ahora integrado en Google Colab. Los desarrolladores pueden acelerar instantáneamente el código pandas hasta 50 veces en las instancias de GPU de Google Colab y continuar utilizando pandas a medida que crece el volumen de datos, sin sacrificar el rendimiento.
El programa NVIDIA Inception ayuda a las empresas emergentes a acelerar la innovación con recursos y formación de desarrolladores, acceso a créditos en la nube, precios exclusivos en el software y hardware de NVIDIA y oportunidades de exposición a la comunidad de capital de riesgo.
Política de privacidad de NVIDIA