AI の発展を見据えた専用設計
NVIDIA DGX SuperPOD™ は、IT 部門があらゆるユーザーとワークロードに妥協のないパフォーマンスを提供できるようにする、AI データセンター インフラです。NVIDIA DGX™ プラットフォームは、きわめて困難な AI ワークロードに対して、最高クラスのアクセラレーテッド インフラとスケーラブルなパフォーマンスを提供しており、業界で評価されています。
DGX SuperPOD は、パフォーマンスおよび信頼性に対するエンタープライズのニーズを満たす、予測性の高いソリューションです。NVIDIA は、DGX SuperPOD を広範にテストし、企業における AI ワークロードの要求に対応できるまでその性能を高めているため、アプリケーションのパフォーマンスに関して心配する必要はありません。
DGX SuperPOD は、AI ワークフロー管理、コンピューティング、ストレージ、ネットワーク インフラを高速化するライブラリ、AI ワークロードに最適化されたオペレーティング システムを含む実証済みのソフトウェアである NVIDIA Base Command™ を採用しています。
NVIDIA Base Command Manager により、DGX SuperPOD のデプロイ、ソフトウェア プロビジョニング、継続的な監視、正常性チェックをシームレスに自動化します。
DGX SuperPOD では、専任の専門家が、導入から、インフラ管理、ワークロードの拡張、本番 AI の合理化まで、すべてを支援します。AI に精通したメンバーで構成される世界最大のチームに直接相談できる「DGXpert」もご利用いただけます。
NVIDIA は 3900 億のパラメーターを目指し、日本で構築された日本語用 LLM 分野に注力していますこれにより、DGX SuperPOD と NVIDIA AI Enterprise ソフトウェア スタックを活用してシームレスな開発と展開を実現し、企業の文化や慣習に合わせてファインチューニングされた AI ソリューションを強化することができます。
— Softbank Corp、Unified Cloud & Platform 部門バイス プレジデント兼責任者、Ashiq Khan 氏
NVIDIA DGX SuperPOD のパワフルなパフォーマンス、NeMo の最適化されたアルゴリズム、3D 並列処理の手法を利用して、LLM をより効果的にトレーニングしました。他のプラットフォームの使用も検討しましたが、ハードウェア レベルから推論レベルまで、フルスタック環境を提供する代替案を見つけることは困難でした。
- KT Corporation、LLM 開発チームリード、Hwijung Ryu 氏
DGX SuperPOD、C-DAC により独自に開発された HPC-AI エンジン、HPC-AI ソフトウェア フレームワーク、クラウド プラットフォームを使用して構築された 210 ペタフロップスの PARAM Siddhi AI [スーパーコンピューター] は、科学とエンジニアリングを使用してインド固有の壮大な課題を解決するための実験を加速します。
- Centre for Development of Advanced Computing (C-DAC)、所長
研究者は量子単位の精確さでタンパク質の分子シミュレーションをすることができ、COVID-19 などと関連する病気の治療法発見に役立ちます。6000 年以上かかる分析がたったの 1 日で完了します。
- フロリダ大学、化学博士、Adrian Roitberg 氏
DGX SuperPOD は、NAVER CLOVA が韓国および日本市場向けの最先端言語モデルを構築し、世界市場でパワフルな AI プラットフォーム採用企業に進化するのを支援しています。
- Naver Corporation、COLVA CIC リーダー、Suk Geun SG Chung 氏
UF は、HiPerGator AI (NVIDIA DGX SuperPOD) を活用した AI センター オブ エクセレンスを設立し、臨床成果の改善から災害救助の強化まで、さまざまな分野の研究を推進しています。
KT は言語の複雑さに関する詳細な知見があり、スマートス ピーカーとコンタクト センターのトレーニングを 2 倍まで高速化し、同時に 2200 万人以上の利用者をサポートしています。NVIDIA のスマート スピーカーとコンタクト センターは、NVIDIA DGX SuperPOD の NVIDIA NeMo™ フレームワークを利用しています。
DeepL は、DGX SuperPOD である DeepL Mercury スーパーコンピューターを採用し、独自の LLM を構築して、最も革新的な言語 AI テクノロジで企業や個人をサポートしています。
NVIDIA DGX SuperPOD は、ワールドクラスのコンピューティング、ソフトウェア ツール、専門知識、継続的なイノベーションをシームレスに利用できるようにするターンキー AI データ センター ソリューションを企業に提供します。DGX SuperPOD には 2 つのアーキテクチャ オプションがあり、あらゆる企業が AI をビジネスに統合し、プラットフォームの複雑さに悩まされることなく、革新的なアプリケーションを開発できるようにします。
NVIDIA DGX B200 システムを搭載した DGX SuperPOD は、スケーラブルなインフラに最適であり、大規模な言語モデルの構築、サプライチェーンの最適化、大量のデータからのインテリジェンスの抽出など、複雑で多様な AI ワークロードを抱えるあらゆる規模の企業チームをサポートできます。
NVIDIA DGX H200 システムを搭載した DGX SuperPOD は、NVIDIA NeMo フレームワークによる LLM やディープ ラーニングによるレコメンダー システムなど、大規模かつ高度に複雑な、あるいは Transformer ベースの AI ワークロードをサポートするスケーラブルなインフラに最適です。
即時実行が可能なターンキーの AI 開発プラットフォームをお探しですか? NVIDIA DGX を搭載したエクイニクスのプライベート AI は、エクイニクス コロケーション データ センター、ネットワーク接続、マネージド サービスを活用し、NVIDIA DGX BasePOD™ と DGX SuperPOD をホストし、運用します。
TOP 500 の 10 番目に位置づけられる NVIDIA Eos は、NVIDIA の AI イノベーションを可能にする大規模な NVIDIA DGX SuperPOD であり、研究者が以前は不可能だった課題に取り組むことを支援します。
スーパーコンピューティングのリストで上位にランクインし、MLPerf ベンチマークでは他のあらゆる大規模 AI インフラの記録を上回り、イノベーションの第一線で多くの AI プロジェクトが NVIDIA DGX プラットフォームを利用して開発されている理由をご確認ください。お客様が AI プロジェクトに NVIDIA DGX を選択する理由をご覧ください。
世界最高のパフォーマンスを誇るスーパーコンピューターを設計する秘訣をご紹介します。生成 AI アプリケーションをスーパーチャージする同様のクラスターの構築方法について詳しくは、「The Next-Generation DGX Architecture for Generative AI (生成 AI のための次世代 DGX アーキテクチャ)」をご覧ください。
NVIDIA エンタープライズ サービスでは、DGX インフラストラクチャを対象とするサポート スペシャリスト、教育スペシャリスト、インフラストラクチャ スペシャリストを手配します。AI 導入のあらゆる段階で NVIDIA のエキスパートが支援するエンタープライズ サービスは、プロジェクトを短期間で成功に導きます。
NVIDIA の Deep Learning Institute (DLI) の AI エキスパートによる DGX のお客様向けの特別なテクニカル トレーニングを受けることで、AI による最先端のブレイクスルーを短期間で達成する方法を学ぶことができます。
TOP 500 の 9 番目に位置づけられる NVIDIA Eos は、NVIDIA の AI イノベーションを可能にする大規模な NVIDIA DGX SuperPOD であり、研究者が以前は不可能だった課題に取り組むことを支援します。
DGX SuperPOD と DGX GB200 を組み合わせたシステムは、水冷式のラックスケール AI インフラであり、NVIDIA GB200 Grace Blackwell Superchips を搭載しています。数兆パラメーター規模の生成 AI モデルをトレーニングし、推論するためのインテリジェントな予測管理機能を備えています。
DGX プラットフォームの利用を開始する最速の方法は、NVIDIA DGX Cloud を活用することです。これは、生成 AI を開発する企業向けに提供されたサーバーレスの AI-training-as-a-service プラットフォームです。
業界をリードするストレージ テクノロジ プロバイダーとの協力により、NVIDIA DGX SuperPOD ではリファレンス アーキテクチャ ソリューションのポートフォリオが利用可能です。これらのソリューションは NVIDIA パートナー ネットワークを通じてすぐにデプロイ可能な完全統合型サービスとして提供されており、これらのソリューションを活用することにより、データ センターの AI インフラの設計、デプロイ、管理をよりシンプルかつ迅速に行うことができます
NVIDIA DGX SuperPOD は、厳選されたベンダーの高性能ストレージを含む完全な AI インフラストラクチャ ソリューションであり、最も要求の厳しい AI ワークロードを処理するよう、NVIDIA によって厳格に試験および認定されています。
NVIDIA エンタープライズ サービスは、DGX インフラ向けのサポート、教育、プロフェッショナル サービスを提供します。AI 導入のあらゆる段階で NVIDIA のエキスパートが支援するエンタープライズ サービスは、プロジェクトを短期間で成功に導きます。
NVIDIA プライバシー ポリシー
DDN A3I を搭載した NVIDIA DGX™ システムは、生成 AI、自動運転車両、行政、ライフ サイエンス、金融サービスなど、世界中のお客様と共に AI を量産するための決め手となっています。NVIDIA の統合ソリューションは、クラスターの成長に合わせて制限なく拡張でき、パフォーマンスを向上させ、反復作業を高速化し、何よりもビジネス イノベーションを加速させます。多岐にわたる専門知識により、競合ソリューションの数分の 1 の電力で 10 倍のパフォーマンスを実現する、高性能な AI データ センターへのもっとも近道をお客様に提供します。
NVIDIA DGX A100 と SuperPOD により AI 統合が簡単に Cambridge-1: NVIDIA の成功事例 AI データ ストレージの TCO 見積もりツール
nvidia@ddn.com
IBM Storage Scale System は、AI イノベーションを推進し、NVIDIA DGX BasePOD™ から最大級の DGX SuperPOD™ インストールまでシームレスに拡張する超高性能ソリューションです。GPU アクセラレーションと AI を活用するために何千社もの組織が導入している IBM Storage Scale System は、きわめて要求の厳しい企業に対し、ほぼ 100% に近いデータ信頼性、サイバー レジリエンシ、マルチプロトコル データ パイプラインを提供します。ソフトウェアデファインドの IBM Storage は、データを統合し階層化することで、グローバル データ プラットフォームを活用して組織に価値をもたらし、データ集約型の AI ワークロードを実行可能なインサイトにすることができます。
NVIDIA DGX™ A100 と DGX SuperPOD を使用した IBM Storage リファレンス アーキテクチャ IBM と NVIDIA: AI 向けの最速データ プラットフォーム
www.ibm.com/jp-ja/storage/nvidia
VAST Data Platform で無限のスケールとパフォーマンスを実現し、大規模な AI をよりシンプル、迅速、簡単に管理できるようにします。VAST は、世界最大級のスーパーコンピューティング センターや主要な研究機関に導入されています。VAST の大規模並列アーキテクチャ、エンタープライズグレードのセキュリティ、使いやすさ、革新的なデータ削減を独自に組み合わせることで、より多くの組織が AI を活用できるようになっています。NVIDIA® BlueField® や GPUDirect® Storage など、NVIDIA テクノロジと VAST の緊密な統合により、複雑さを排除し、AI パイプラインを合理化して、より効果的にインサイトを提供します。
NVIDIA DGX SuperPOD と VAST で企業向け AI を民主化する リファレンス アーキテクチャ: NVIDIA DGX SuperPOD: VAST ソリューションの概要: VAST Data Platform for NVIDIA DGX SuperPOD
hello@vastdata.com
NetApp と NVIDIA は AI インフラの IT 標準を確立し、数千ものデプロイにより実証された信頼性の高いソリューションを提供しています。NetApp の業界をリードする Unified Data Storage を利用すれば、組織は AI ワークロードを拡張し、最大 5 倍の速さでインサイトを得ることができます。NetApp は業界に関する深い専門知識と最適化されたワークフローを活用して、実際の課題に合わせてカスタマイズされたソリューションを提供します。NetApp は NVIDIA と連携し 、データ パイプラインの簡素化と高速化を図り、先進的な AI ソリューションを提供しています。この統合ソリューションでは、NVIDIA DGX SuperPOD™ とクラウド接続済みのオールフラッシュ ストレージが活用されています。
NetApp AI ソリューション データイノベーションの先駆者、NetApp ブログ NetApp ソリューション ドキュメント
ng-AI@NetApp.com
Dell PowerScale は、データ処理と AI トレーニングを高速化する AI 対応データ プラットフォームです。NVIDIA DGX SuperPOD™ で検証済みです。PowerScale のスケーラブル アーキテクチャは拡張を簡単にします。生成 AI モデルを改良し、堅牢なセキュリティ機能でデータを保護する力を組織に与えます。PowerScale は高速のイーサネット接続で NVIDIA DGX™ システムへのデータ アクセスを高速化し、転送時間を最小化し、ストレージ スループットを最大化します。Multipath Client Driver や NVIDIA® GPUDirect® などのスマート スケールアウト機能により、組織は AI モデルのトレーニングや推論を高速化するための高パフォーマンスなしきい値を満たすことができます。
ソリューション概要: Dell PowerScale は、NVIDIA DGX SuperPOD で認定された世界最速のイーサネットベース ストレージ ソリューションです ブログ: PowerScale: NVIDIA SuperPOD で認定された世界最速のイーサネット ストレージ Ebook: PowerScale OneFS があらゆるファイル ワークロードに最適である 10 の理由
www.dell.com/en-us/dt/forms/contact-us/isg.htm
NVIDIA DGX SuperPOD™ 向けとして認定された WEKApod Data Platform Appliance で、データ インフラストラクチャの投資を最適化し、AI イノベーションの限界を押し上げましょう。NVIDIA DGX™ のインフラストラクチャ/ネットワーキング テクノロジと WEKA® Data Platform を組み合わせることで、さまざまな AI ワークロードに合わせてパフォーマンスが強化され、モデルのトレーニングとデプロイが高速化されます。この高度なスケールアウト アーキテクチャは、活動のないデータ ストレージ サイロを活動的なデータ パイプラインに変え、そのパイプラインが GPU を効率的に動かし、オンプレミスでも、クラウドでも、AI ワークロードにシームレスかつ持続可能な方法でパワーを与えます。
WEKA と NVIDIA のパートナーシップ データシート: WEKApod Data Platform Appliance ブログ: 最新式のコンピューティングやネットワーキングに合わせてストレージを強化する新しい WEKApod Data Platform Appliance
www.weka.io/company/contact-us