La Primera GPU con Núcleos Tensor
Descubre la información oculta en océanos de datos que puede transformar industrias enteras, desde la terapia de cáncer personalizada hasta la conversación natural de los asistentes personales virtuales y las predicciones de huracanes importantes.
La GPU NVIDIA® V100 con núcleos Tensor es la GPU para data centers más avanzada de la historia, ya que acelera tareas de IA, computación de alto rendimiento (HPC), ciencia de datos y gráficos. Cuenta con la arquitectura NVIDIA, se ofrece en configuraciones de 16 y 32GB, y proporciona un rendimiento equivalente al de 32 CPU en una sola GPU. Los científicos de datos, los investigadores y los ingenieros pueden dedicar menos tiempo a optimizar el uso de la memoria y más tiempo a diseñar el próximo avance revolucionario de IA.
Ejecuta cargas de trabajo de HPC y IA en un entorno virtual para aumentar la seguridad y la administración con el software NVIDIA Virtual Compute Server (vCS)
Entrenamiento de ResNet-50, conjunto de datos: ImageNet2012, BS=256 | Comparación de NVIDIA V100: Servidor NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, contenedor = 19.11-py3, precisión mixta, productividad: 1525 imágenes/s | Comparación de Intel: Supermicro SYS-1029GQ-TRT, 1 socket Intel Gold 6240 a 2 Ghz/3,9 Hz Turbo, Tensorflow 0.18, FP32 (una sola precisión disponible), productividad: 48 imágenes/s
Desde el reconocimiento de habla hasta la capacitación de asistentes personales virtuales y la conducción de automóviles autónomos, los científicos de datos resuelven desafíos cada vez más complejos con la IA. Solucionar estos tipos de problemas requiere capacitar modelos de deep learning cada vez más complejos en un tiempo práctico.
Con 640 Núcleos Tensor, V100 es la primera GPU del mundo en superar la barrera de los 100 teraFLOPS (TFLOPS) de rendimiento de deep learning. La tecnología NVIDIA NVLink™ de próxima generación conecta varias GPU V100 a 300GB/s para crear los servidores más potentes del mundo. Los modelos de IA que consumían semanas de recursos de computación en los sistemas anteriores ahora se pueden capacitar en unos pocos días. Con esta dramática reducción en el tiempo de capacitación, ahora es posible resolver una gran cantidad de problemas con IA.
Inferencia de ajuste de BERT Base, conjunto de datos: SQuADv1.1, BS=1, longitud de secuencia =128 | Comparación de NVIDIA V100: Supermicro SYS-4029GP-TRT, 1x V100-PCIE-16GB, contenedor previo al lanzamiento, precisión mixta, NVIDIA TensorRT™ 6.0, productividad: 557 oraciones/s | Comparación de Intel: 1 socket Intel Gold 6240 a 2,6 Ghz/3,9 Hz Turbo, FP32 (una sola precisión disponible), OpenVINO MKL-DNN v0.18, productividad: 23.5 oraciones/s
Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescalabilidad comenzaron a aprovechar la IA. Sin embargo, mantener el ritmo de la demanda de los usuarios es un desafío complejo. Por ejemplo, la empresa de hiperescalabilidad más grande del mundo estimó recientemente que se debería duplicar la capacidad de sus data centers si cada usuario dedicara tan solo tres minutos por día a usar su servicio de reconocimiento de voz.
V100 se diseñó para proporcionar el máximo rendimiento en los racks de servidores de hiperescalabilidad existentes. La GPU V100 está optimizada para la IA y logra un rendimiento de inferencia 47veces mayor que un servidor de CPU. Este enorme salto en la tasa de transferencia y la eficacia permite que la escalabilidad de los servicios de IA sea práctica.
Aplicación (conjunto de datos): MILC (APEX Medium) y Chroma (szscl21_24_128) | Servidor con CPU: Dual-Socket Intel Xeon Platinum 8280 (Cascade Lake)
HPC es un aspecto básico de la ciencia moderna. Desde predecir el clima hasta descubrir nuevos medicamentos o fuentes de energía, los investigadores usan los sistemas de computación para simular y predecir nuestro mundo. La IA extiende la computación de alto rendimiento (HPC) tradicional, ya que les permite a los investigadores analizar grandes volúmenes de datos y obtener resultados rápidamente, cuando la simulación no puede predecir por completo el mundo real.
V100 se diseñó para la convergencia de IA y HPC. Ofrece una plataforma para sistemas de HPC que mejora la ciencia de computación para la simulación científica y la ciencia de datos para descubrir información. Al combinar los núcleos NVIDIA CUDA® con los núcleos Tensor en una misma arquitectura, un solo servidor con varias GPU V100 puede reemplazar a cientos de servidores genéricos solo de CPU para las cargas de trabajo de IA y HPC tradicionales. Ahora, cada investigador e ingeniero puede acceder a una supercomputadora de IA para resolver sus trabajos más desafiantes.
El rendimiento definitivo para el deep learning.
La versatilidad más alta para todas las cargas de trabajo.
PRECISIÓN DOBLE 7.8 teraFLOPS
PRECISIÓN ÚNICA 15.7 teraFLOPS
Deep Learning 125 teraFLOPS
PRECISIÓN DOBLE 7 teraFLOPS
PRECISIÓN ÚNICA 14 teraFLOPS
Deep Learning 112 teraFLOPS
PRECISIÓN DOBLE 8.2 teraFLOPS
PRECISIÓN ÚNICA 16.4 teraFLOPS
Deep Learning 130 teraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACIDAD 32/16 GB HBM2
ANCHO DE BANDA 900 GB/s
CAPACIDAD 32 GB HBM2
ANCHO DE BANDA 1134 GB/s
300 WATTS
250 WATTS
Los Aceleradores de GPU Más Veloces del Mundo para la Computación de Alto Rendimiento y el Deep Learning.
Encuentra un socio de la computación acelerada de NVIDIA mediante nuestra Red de Socios de NVIDIA (NPN).