NVIDIA A2 Tensor Core GPU

Die Vielseitige Einsteiger-GPU, die NVIDIA-KI auf jeden Server bringt.

Vielseitige Einsteiger-Inferenz

Die NVIDIA A2 Tensor-Core-GPU bietet Inferenz für Einsteiger mit geringem Stromverbrauch, geringem Platzbedarf und hoher Leistung für intelligente Videoanalysen (IVA) mit NVIDIA-KI in der Edge. Mit einer Low-Profile-PCIe Gen4-Karte und einstellbarem Energieverbrauch (TDP, Thermal Design Power) von 40 bis 60 W bietet die A2 allen Servern vielseitige Inferenzbeschleunigung für die Bereitstellung in großem Maßstab.

Bis zu 7-mal mehr Inferenzleistung

KI-Inferenz wird eingesetzt, um das Leben von Verbrauchern durch intelligente Echtzeit-Erlebnisse zu verbessern und durch Billionen von Endpunktsensoren und Kameras Erkenntnisse zu gewinnen. Im Vergleich zu reinen CPU-Servern bieten Edge- und Einstiegsklasse-Server mit NVIDIA A2 Tensor-Core-GPUs bis zu 20-mal mehr Inferenzleistung und befähigen jeden Server sofort, moderne KI zu bewältigen.

Computer Vision
(EfficientDet-DO)

(Verarbeitung natürlicher Sprache)


Text-to-Speech
(Tacotron2 + Waveglow)

Comparisons of one NVIDIA A2 Tensor Core GPU versus a dual-socket Xeon Gold 6330N CPU

Höhere IVA-Leistung für die
Intelligente Edge

Server, die mit NVIDIA A2-GPUs ausgestattet sind, bieten bis zu 1,3-mal mehr Leistung bei intelligenten Edge-Anwendungsfällen, einschließlich Smart Cities, Fertigung und Einzelhandel. NVIDIA A2-GPUs, auf denen IVA-Workloads ausgeführt werden, bieten effizientere Bereitstellungen mit bis zu 1,6-mal besserem Preis-Leistungs-Verhältnis und 10 Prozent besserer Energieeffizienz als frühere GPU-Generationen.

IVA-Leistung (normalisiert)

IVA-Leistung (normalisiert)

Für jeden Server optimiert

Die NVIDIA A2 GPU ist für Inferenz-Workloads und Bereitstellungen in Einstiegsklasse-Servern optimiert, die durch Platz- und Wärmeanforderungen wie 5G-Edge- und Industrieumgebungen eingeschränkt sind. A2 bietet einen kompakten Formfaktor, der mit geringem Energieverbrauch betrieben wird, mit einer TDP von lediglich 60 W bis zu 40 W, was A2 ideal für jeden Server macht.  

Geringerer Stromverbrauch und konfigurierbare TDP

Geringerer Stromverbrauch und konfigurierbare TDP

Führende KI-Inferenzleistung in Cloud, Rechenzentrum und Edge

KI-Inferenz ist weiterhin die Triebfeder bahnbrechender Innovationen in allen Branchen, darunter Consumer Internet, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, Einzelhandel, Fertigung und Supercomputing. Mit kleinem Formfaktor und dem geringem Stromverbrauch bietet die A2 in Kombination mit den NVIDIA A100 und A30 Tensor-Core-GPUs ein komplettes KI-Inferenzportfolio für Cloud, Rechenzentrum und Edge. A2 und das NVIDIA KI-Inferenzportfolio stellen sicher, dass KI-Anwendungen mit weniger Servern und weniger Strom bereitgestellt werden können, was zu schnelleren Erkenntnissen bei wesentlich niedrigeren Kosten führt.

Führende KI-Inferenzleistung in Cloud, Rechenzentrum und Edge

Bereit für die Nutzung in Unternehmen

NVIDIA AI Enterprise

NVIDIA AI Enterprise, eine Cloud-native End-to-End-Suite aus KI- und Datenanalysesoftware, ist zertifiziert, um auf der A2 in hypervisorbasierter virtueller Infrastruktur mit VMware vSphere ausgeführt zu werden. Dies ermöglicht die Verwaltung und Skalierung von KI- und Inferenz-Workloads in einer Hybrid-Cloud-Umgebung.

Erfahren Sie mehr über NVIDIA AI Enterprise 

A30 mit MIG optimiert die Auslastung GPU-beschleunigter Infrastruktur
A30 mit MIG optimiert die Auslastung GPU-beschleunigter Infrastruktur

Mainstream NVIDIA-zertifizierte Systeme

NVIDIA-zertifizierte Systeme™ mit NVIDIA A2 vereinen Computing-Beschleunigung und sichere NVIDIA-Hochgeschwindigkeits-Netzwerke in Enterprise-Rechenzentrumsservern, die von NVIDIA-OEM-Partnern entwickelt und vertrieben werden. Dieses Programm ermöglicht es Kunden, Systeme für traditionelle und vielfältige moderne KI-Anwendungen aus dem NVIDIA NGC™-Katalog auf einer einzigen leistungsstarken, kostengünstigen und skalierbaren Infrastruktur zu identifizieren, zu erwerben und bereitzustellen.

Erfahren Sie mehr über NVIDIA-zertifizierte Systeme 

Basierend auf der NVIDIA Ampere-Architektur

Die NVIDIA Ampere-Architektur wurde für das Zeitalter elastischen Computings entwickelt und bietet die nötige Leistung und Beschleunigung für moderne Unternehmensanwendungen. Lernen Sie das Herzstück der leistungsstärksten, elastischen Rechenzentren kennen.

Weitere Informationen zur NVIDIA Ampere-Architektur

A30 mit MIG optimiert die Auslastung GPU-beschleunigter Infrastruktur

Technische Spezifikationen

Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 Tensor Core 18 TF | 36 TF¹
Peak FP16 Tensor Core 18 TF | 36 TF¹
Peak INT8 Tensor Core 36 TOPS | 72 TOPS¹
Peak INT4 Tensor Core 72 TOPS | 144 TOPS¹
RT Cores 10
Media engines 1 video encoder
2 video decoders (includes AV1 decode)
GPU memory 16GB GDDR6
GPU memory bandwidth 200GB/s
Interconnect PCIe Gen4 x8
Form factor 1-slot, low-profile PCIe
Max thermal design power (TDP) 40–60W (configurable)
Virtual GPU (vGPU) software support² NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)

Einblick in die NVIDIA Ampere Architektur

Entdecken Sie die neuesten Technologien der NVIDIA Ampere Architektur.