学習、推論、データ アナリティクスを 1 つのプラットフォームに一元化それぞれのシステムを 1 から 56 の独立した GPU で構成できるため、エラスティックで、ソフトウェア デファインドなデータセンター インフラストラクチャの構築が可能に
2020 年 5 月 14 日、カリフォルニア州サンタクララ - GTC 2020 - NVIDIA は本日、世界最先端の AI システムの第 3 世代となる、NVIDIA DGX™ A100 を発表しました。NVIDIA DGX A100 は、5 PFLOPS の AI 性能を持ち、データセンター全体の能力と機能を単一の柔軟なプラットフォームに集約します。
DGX A100 システムは本発表直後から入手可能となり、すでに全世界への出荷が開始されています。最初の納入先は、米国エネルギー省 (DOE) アルゴンヌ国立研究所で、同研究所では、クラスタの AI とコンピューティング パワーを使って COVID-19 についての理解を深め、ウイルスとの戦いに臨もうとしています。
NVIDIA の創業者/CEO のジェンスン フアン (Jensen Huang) は、次のように述べています。「NVIDIA DGX A100 は、AI を進歩させるための究極の装置です。NVIDIA DGX は、データアナリティクスから学習、そして推論までのエンドツーエンドの機械学習ワークフローのために設計された最初の AI システムです。新しい DGX による飛躍的な性能の向上により、機械学習のエンジニアは急激に規模を拡大する AI モデルとデータの先を行くことができます。」
DGX A100 システムには、8 基の新しい NVIDIA A100 Tensor コア GPU、最大の AI データセットの学習にも対応できる 320GB のメモリ、最新の高速NVIDIA Mellanox® HDR 200Gbps インターコネクトが搭載されています。
A100 のマルチインスタンス GPU 機能を使って、DGX A100 をシステム当たり最大 56 のインスタンスに分割することで、複数の小規模ワークロードを高速化させることができます。これらの機能を組み合わせることで、企業は、単一の完全に統合されたソフトウェア デファインド プラットフォームで、演算の能力とリソースをオンデマンドで最適化し、データ アナリティクス、学習、推論を含む多様なワークロードを高速化できます。
DGX A100 を即座に導入する企業からの支持
世界最大級の企業、サービス プロバイダーおよび政府機関の多くが、DGX A100 の初期発注を行っており、今月の初めに最初のシステムがアルゴンヌ国立研究所に納入されました。
アルゴンヌのコンピューティング、環境およびライフサイエンス担当研究所副所長であるリック スティーブンス (Rick Stevens) 氏は、次のように話しています。「当研究所は、COVID-19 との戦いに米国で最もパワフルなスーパーコンピューターを使用し、NVIDIA DGX A100 のような最新のテクノロジで AI モデルとシミュレーションを実行しています。新しい DGX A100 システムの演算能力は、研究者が治療法やワクチンを探求したり、ウイルスの拡散を研究したりするのに役立ち、数年分の AI で加速された研究を数か月から数日の単位で行うことを可能にします。」
フロリダ大学は、米国で高等教育機関として初めて DGX A100 システムを導入し、カリキュラム全体に AI を行き渡らせ、AI を活用できる人材を育成しようとしています。
フロリダ大学の学長であるケント フックス (Kent Fuchs) 氏は、次のように話しています。「フロリダ大学は、米国での人工知能のリーダーになるというビジョンを持っています。NVIDIA は、それを実現するための当学の取り組みでの貴重なパートナーとなっています。新しい NVIDIA DGX A100 システムは、分野を超えて研究者が世界で最も差し迫った問題のいくつかを解決するために、ならびにすべての年代の学生が未来の仕事に革命をもたらすスキルを身につけるために不可欠なものとなるでしょう。」
その他のアーリー アダプターには、以下のような企業や機関が含まれています。
- バイオケミカル AI センター — ドイツ、ハンブルク エッペンドルフ大学医療センターにある、この研究所は、DGX A100 を活用して、診療上の意思決定のサポートならびにプロセスの最適化を促進しようとしています。
- チュラロンコン大学 — タイのトップクラスの研究集約的大学であるチェラロンコン大学では、DGX A100 を使って、タイ語の自然言語処理や自動音声認識、コンピューター ビジョン、医用画像などの分野における先駆的な研究を加速しようとしています。
- Element AI — モントリオールで AI 関係のソリューションとサービスの開発を行っている同社では、DGX A100 を導入して、自社の Orkestrator GPU スケジューラーの性能および機能の最適化を加速し、AI の学習とアプリケーションへの増え続ける需要に対応しようとしています。
- ドイツ人工知能研究センター (DFKI) では、DGX A100 システムを使って、新しいディープラーニングの手法およびその説明可能性についての研究をより加速し、同時に設置スペースと電力消費を大幅に削減したいと考えています。
- Harrison.ai — シドニーのヘルスケアの AIに特化した企業では、DGX A100 システムをオーストラリアで初めて導入し、医療機器としての AI の開発を加速しようとしています。
- UAE 人工知能局 – 新しい DGX A100 を中東で初めて導入することになるこの機関では、全国を網羅するインフラストラクチャを構築して、公共部門と民間部門の両方で AI の研究、開発および導入を推進しようとしています。
- VinAI Research — ハノイとホーチミンに研究所を置く、このベトナムのトップレベルの AI 研究ラボでは、DGX A100 を使って、影響力の大きい研究を行うともに、AI のアプリケーションを高速化させたいと考えています。
数千台にも及ぶ、前世代の DGX システムが、世界中の公共および民間の様々な組織で使用されています。そのような組織のなかには、自動車メーカーやヘルスケア プロバイダー、小売業、金融機関、ロジスティクス企業を含む、世界的な組織が含まれており、それぞれの企業が自らの業界で AI を活用しようとしています。
NVIDIA、700 PFLOPS の性能を持つ、次世代の DGX SuperPOD を構築
NVIDIA はまた、次世代の DGX SuperPOD を公開しました。これは、140 台の DGX A100 システムで構成されたクラスタであり、700 PFLOPS の AI コンピューティング性能を達成しています。140 台の DGX A100 システムと NVIDIA Mellanox HDR 200Gbps InfiniBand インターコネクトを組み合わせることで、NVIDIA は、対話型 AI やゲノミクス、自動運転といった分野の内部研究に使用できる、独自の次世代 DGX SuperPOD AI スーパーコンピューターを構築しました。
このクラスタは、世界最速の AI スーパーコンピューターの 1 つであり、これまで数千台のサーバーを必要とした性能をこれだけの規模で実現することができます。DGX A100 のエンタープライズ対応のアーキテクチャと性能により、NVIDIA はわずか 1 か月でこのシステムを構築することができました。これまで、このようなスーパーコンピューティング性能を実現するためには、計画とコンポーネントの調達だけで数か月あるいは数年を費やさなければなりませんでした。
お客様が A100 を活用した自らのデータセンターを構築するのに役立つように、NVIDIA は新しい DGX SuperPOD リファレンス アーキテクチャを公開しました。NVIDIA が DGX A100 ベースの AI スーパーコンピューティング クラスタを構築したときに用いた設計原則とベストプラクティスにもとづいた設計図をお客様に提供するものです。
DGXpert プログラム、DGX-Ready ソフトウェア
NVIDIA は、DGX のお客様と NVIDIA の AI エキスパートを結びつける NVIDIA DGXpert プログラム、ならびにお客様が AI ワークフロー用の認定済みエンタープライズ グレードのソフトウェアを活用できるように支援する NVIDIA DGX-Ready ソフトウェア プログラムも開始しました。
DGXpert とは、計画から実装、継続的な最適化に至る、AI 導入の過程でお客様を支援する、AI に熟達したスペシャリストです。DGX A100 のお客様が最先端の AI インフラストラクチャを構築および維持するのを手助けします。
NVIDIA DGX-Ready ソフトウェア プログラムは、データサイエンスの生産性を向上させ、AI ワークフローを加速させ、AI インフラストラクチャのアクセシビリティと利用率を向上させることができる、NVIDIA のテスト済みのサードパーティーの MLOps ソフトウェアを、DGX のお客様が迅速に特定し、活用するのに役立ちます。NVIDIA の認証を受けた、最初のプログラム パートナーには、Allegro AI、cnvrg.io、Core Scientific、Domino Data Lab、Iguazio および Paperspace が名を連ねています。
DGX A100 技術仕様
- 8 基の NVIDIA A100 Tensor コア GPU は、5 PFLOPS の AI 性能を発揮し、12.4TB / 秒の帯域幅の合計 320GB の GPU メモリを備えています。
- 6 つの NVIDIA NVSwitch™ インターコネクト ファブリックは、第 3 世代の NVIDIA NVLink® テクノロジを搭載し、4.8TB / 秒の双方向帯域幅を実現します。
- 9 つの NVIDIA Mellanox ConnectX-6 HDR 200Gbps ネットワーク インターフェースを搭載し、合計 3.6Tb / 秒の双方向帯域幅を提供します。
- NVIDIA Mellanox の In-Network Computing、ならびにRDMA、GPUDirect® および Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ などのネットワーク アクセラレーション エンジンを活用し、最高の性能とスケーラビリティを実現します。
- 15TB の Gen4 NVMe ストレージを内蔵、Gen3 NVMe SSDより2倍高速です。
- AI やデータサイエンスのワークロードのために最適化されたソフトウェアを含む NVIDIA DGX ソフトウェア スタックを搭載し、性能を最大化することで、企業は AI インフラストラクチャへの投資に対するリターンをより早く回収できます。
単一のラックに構成された 5 台の DGX A100 システムで、AI の学習と推論のためのインフラストラクチャのデータセンターを 20 分の 1 の消費電力、25 分の 1 のスペース、 10 分の 1 の費用で置き換えられます。
提供時期
NVIDIA DGX A100 システムは、199,000 米ドルからの価格で出荷が開始され、世界中の NVIDIA パートナー ネットワークの販売業者から入手することができます。ストレージ テクノロジ プロバイダーの DDN Storage、Dell Technologies、IBM、NetApp、Pure Storage および Vast では、NVIDIA DGX POD および DGX SuperPOD リファレンス アーキテクチャをベースにしたものを含め、自社の製品に DGX A100 を組み込む予定です。
NVIDIA DGX-Ready データセンター パートナーは、DGX インフラストラクチャをホストするための費用対効果の高い施設を探しているお客様を支援するために、26 の国の 122 以上の地域でコロケーション サービスを提供しています。DGX A100 のお客様は、これらのサービスを利用して、検証済みの、ワールドクラスのデータセンター施設内に DGX A100 インフラストラクチャを設置し、利用できるようになります。
詳細な技術仕様および注文の方法を含む、詳しい情報は、www.nvidia.com/DGX-A100 でご覧いただけます。
NVIDIA について
1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: www.nvidia.com/ja-jp/