A medida que los modelos explotan en complejidad, la computación acelerada y la eficiencia energética se vuelven fundamentales para satisfacer las demandas de la IA. La CPU NVIDIA Grace™ es una innovadora CPU Arm® con un rendimiento y una eficiencia sin compromisos. Se puede combinar estrechamente con una GPU para potenciar la computación acelerada o se puede implementar como una CPU independiente potente y eficiente. La CPU NVIDIA Grace es la base de los data centers de próxima generación y se puede usar en diversas configuraciones para diferentes necesidades del data center.
NVIDIA GB200 NVL2
La plataforma NVIDIA GB200 NVL2 lleva la nueva era de la computación a todos los data center, ofreciendo un desempeño sin precedentes para la inferencia de grandes modelos de lenguaje (LLM), búsqueda de bases de datos vectoriales y procesamiento de datos.
El Superchip NVIDIA GB200 Grace™ Blackwell combina dos GPU NVIDIA Blackwell con núcleo Tensor y una CPU Grace. Puede escalar hasta el GB200 NVL72, un enorme sistema de 72 GPU conectado por NVIDIA® NVLink®, para ofrecer una inferencia en tiempo real 30 veces más rápida para grandes modelos de lenguaje (LLM).
La plataforma NVIDIA GB200 NVL2 lleva la nueva era de la computación a todos los data center, ofreciendo un desempeño sin precedentes para la inferencia de grandes modelos de lenguaje (LLM), búsqueda de bases de datos vectoriales y procesamiento de datos.
El Superchip NVIDIA Grace Hopper™ combina las arquitecturas Grace y Hopper usando NVIDIA® NVLink®-C2C para ofrecer un modelo de memoria coherente de CPU+GPU para aplicaciones aceleradas de IA y de computación de alto rendimiento (HPC).
El superchip de CPU NVIDIA Grace utiliza la tecnología NVLink-C2C para ofrecer 144 núcleos Arm Neoverse V2 y 1 terabyte por segundo (TB/s) de ancho de banda de memoria.
NVIDIA Project DIGITS lleva el poder de Grace Blackwell a las computadoras de escritorio de los desarrolladores. El superchip GB10, combinado con 128 GB de memoria de sistema unificado, permite a los investigadores de IA, científicos de datos y estudiantes trabajar con modelos de IA localmente con hasta 200 mil millones de parámetros.
Reciba las Últimas Noticias Sobre los Productos NVIDIA Grace
Descubra cómo las CPU Grace impulsan las más recientes supercomputadoras de gran memoria.
El Sector de la Computación Se Une a NVIDIA para Construir Fábricas de IA y Data Center para la Próxima Revolución Industrial
En Computex 2024, los principales fabricantes de computadoras del mundo se unieron a NVIDIA para presentar los sistemas más recientes impulsados por NVIDIA Blackwell, incluido el GB200 NVL2, con el objetivo de liderar la próxima revolución industrial.
La Próxima Ola de Supercomputadoras Energéticamente Eficientes
Explore las supercomputadoras Arm más recientes y energéticamente eficientes para la ciencia del clima, la investigación médica y mucho más, impulsadas por la CPU NVIDIA Grace.
Creación Más Rápida de Data Centers Acelerados con NVIDIA MGX
Descubra cómo QCT y Supermicro están adoptando diseños modulares para construir de forma rápida y rentable múltiples configuraciones de data center para una amplia gama de aplicaciones de IA, computación de alto rendimiento (HPC) y 5G.
NVIDIA Grace Hopper Desencadena Una Nueva Era de la Supercomputación de IA
Desde el clima y el tiempo atmosférico hasta la exploración científica, la supercomputadora Alps de Suiza, la supercomputadora EXA1-HE de Francia, además de otras, ofrecen 200 exaflops de IA para una investigación innovadora utilizando sistemas energéticamente eficientes basados en Grace
Más Información Sobre las Innovaciones Técnicas Más Recientes
Acelere las Conexiones de CPU a GPU con NVLink-C2C
Resolver los problemas más grandes de IA y HPC requiere una memoria de gran capacidad y de gran ancho de banda (HBM). NVIDIA NVLink-C2C ofrece 900GB/s de ancho de banda bidireccional entre la CPU NVIDIA Grace y las GPU de NVIDIA. La conexión proporciona un espacio de direcciones de memoria unificado y consistente en la memoria caché que combina el sistema y la memoria de GPU HBM para simplificar la programación. Esta conexión coherente y de gran ancho de banda entre la CPU y las GPU es clave para acelerar las soluciones a los problemas más complejos del mañana.
Aproveche la Memoria de CPU de Alto Ancho de Banda con LPDDR5X
NVIDIA Grace es la primera CPU de servidor que utiliza memoria LPDDR5X con fiabilidad de tipo servidor a través de mecanismos como el código de corrección de errores (ECC). Esto le permite satisfacer las demandas del data center al tiempo que ofrece un gran ancho de banda de memoria y una eficiencia energética hasta diez veces mejor en comparación con la memoria de los servidores actuales. El diseño de LPDDR5X logra el equilibrio óptimo de ancho de banda, eficiencia energética, capacidad y costo para cargas de trabajo de IA, HPC y cloud a gran escala.
Impulse el Rendimiento y la Eficiencia con los Núcleos Arm Neoverse V2 y la Estructura de Coherencia Escalable de NVIDIA
A medida que las capacidades de computación paralela de las GPU continúan avanzando, las cargas de trabajo aún pueden ser controladas por tareas en serie ejecutadas en la CPU. Una CPU rápida y eficiente es un componente fundamental del diseño del sistema para permitir la máxima aceleración de la carga de trabajo. La CPU NVIDIA Grace integra los núcleos Arm Neoverse V2 con la estructura de coherencia escalable de NVIDIA para ofrecer un alto rendimiento en un diseño de bajo consumo, lo que facilita a los científicos e investigadores desempeñar el trabajo de sus vidas.
Impulse la IA Generativa con la Memoria de GPU de HBM
La IA generativa requiere mucha memoria y computación. El superchip NVIDIA GB200 utiliza 380GB de memoria de HBM, lo que ofrece más de 4,5 veces el ancho de banda de memoria de GPU de la GPU NVIDIA H100 con núcleo Tensor. La memoria de gran ancho de banda en Grace Blackwell está conectada a la memoria de la CPU a través de NVLink-C2C para proporcionar casi 860GB de memoria de acceso rápido a la GPU. Esto ofrece la capacidad de memoria y el ancho de banda necesarios para manejar las cargas de trabajo de IA generativa y computación acelerada más complejas del mundo.