Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
卓越人工智慧中心的基礎。
NVIDIA DGX™ B200 是全球最靈活的企業人工智慧系統,適合各種規模的企業,也不受人工智慧部署階段侷限。DGX B200 配備 8 個 NVIDIA Blackwell GPU,並與第五代 NVIDIA® NVLink® 相互連結,可提供頂尖的效能。與前幾代相比,訓練效能和推論效能分別達到先前的 3 倍和 15 倍。DGX B200 採用 NVIDIA Blackwell GPU 架構,可以處理多種工作負載,包含大型語言模型、推薦系統和聊天機器人,非常適合希望加快人工智慧轉型的企業。
瞭解 DGX B200 如何從資料準備、訓練到推論,協助企業加速任何人工智慧工作負載。
瞭解 NVIDIA DGX 平台和 NVIDIA NeMo™ 如何為頂尖企業提供強大功能。
優勢
從訓練、微調到推論,企業在人工智慧流程的每個階段都需要大量運算能力,才能處理複雜的人工智慧資料集。有了 NVIDIA DGX B200,企業就能為開發人員提供可加速工作流程的單一平台,讓開發人員的工作更上軌道。
DGX B200 採用 NVIDIA Blackwell 架構在運算方面的先進技術,可提供比 DGX H100 高 3 倍的訓練效能,推論效能則增為 15 倍。DGX B200 是 NVIDIA DGX BasePOD™ 與 NVIDIA DGX SuperPOD™ 的基礎,可為任何工作負載提供頂尖效能。
DGX B200 是一款經過全面優化的硬體和軟體平台,包含完整的 NVIDIA AI 軟體堆疊(包括 NVIDIA Base Command 和 NVIDIA AI Enterprise 軟體)、豐富的第三方支援生態系統以及來自 NVIDIA 專家的專業支援服務。
效能
此為預計效能,之後將有可能更新。Token 對 token 延遲 (TTL) = 50 毫秒即時時間,第一個 token 延遲 (FTL) = 5 秒,輸入序列長度 = 32,768,輸出序列長度 = 1,028,氣冷式的 8 倍八向 HGX H100 GPU 對比風冷式 1 倍八向 HGX B200 的個別 GPU 效能。
此為預計效能,之後可能會更新。採 32,768 個 GPU 規模,4,096 個八向 HGX H100 氣冷式叢集:400G IB 網路,4,096 個八向 HGX B200 氣冷式叢集:400G IB 網路。
規格
資源
有了以 DGX B200 為基礎的 NVIDIA DGX SuperPOD™,頂尖企業就能部署具備 NVIDIA 人工智慧專業技術支援且功能完備的大規模基礎架構。
NVIDIA 企業支援服務可為你的 DGX 基礎架構提供支援、教育和專業服務。企業支援服務的 NVIDIA 專家會在人工智慧旅程的每一步全程陪伴,能協助您啟動專案並快速成功執行。
瞭解如何運用人工智慧,用更快速度締造尖端突破,並探索 NVIDIA 深度學習機構 (DLI) 人工智慧專家專為 DGX 客戶提供的特別技術訓練。
開始使用
DGX 平台由多種產品和服務組成,可滿足所有人工智慧企業的需求。
NVIDIA DGX 是經過驗證的企業人工智慧標準。
與 NVIDIA 產品專家討論您的專業需求。