(同時通訳付)A Deep Dive Into Architecting DGX Blackwell Clusters for Generative AI
, Senior Director, Applied Systems Engineering, NVIDIA
, VP and Chief Architect of AI Systems, NVIDIA
生成 AI モデルの種類やサイズ及びその処理スピードへのニーズが高まり続ける中、コンピューティング インフラはこれらを確実に処理できるように適応する必要があります。Blackwell アーキテクチャを導入する際にそのニーズに以下に対応するかについて、その性能、電力、熱(空冷と液冷)の最適なトレードオフを可能にする DGX システム、ネットワーク ファブリック、インターコネクト、ストレージの設計に関する哲学と方法論をご説明します。DGX スーパーコンピュータである Eos と Selene の設計者による当講演によって、生成 AI のニーズを満たす次世代クラスタをどのように構築しているかについての理解を深めていただけます。
As the variety and size of generative AI models and the processing needs continue to increase, the compute infrastructure needs to adapt to be able to handle these reliably. As we deploy with NVIDIA Blackwell architecture, we’ll review the philosophy and methodology behind the designs of NVIDIA DGX™ systems, network fabric, interconnect, and storage needed to enable optimal trade-offs among performance, power, and thermal (air-cool and liquid-cool). You’ll meet the architects of DGX supercomputers Eos and Selene and gain insights to how they're creating next-gen clusters to power your generative AI needs