Microsoft Azure 成為首個採用 GB200 的 NVIDIA Blackwell 系統的超大規模伺服器

Microsoft Azure 成為首個採用 GB200 的 NVIDIA Blackwell 系統的超大規模伺服器

今年 3 月,NVIDIA 推出了創新的 Blackwell 平台,與先前訓練大型語言模式的模式相比,該平台的成本和能耗顯著降低了 25 倍。 Amazon Web Services、Dell Technologies、Google、Meta、Microsoft、OpenAI、Oracle、Tesla 和 xAI 等主要雲端服務供應商和著名人工智慧公司的期望很高,預計 Blackwell 發布後將整合到他們的營運中。

然而,由於設計問題,Blackwell平台的推出遭遇了長達三個月的挫折。近日,微軟在X上宣布,它已經開始接收NVIDIA的GB200 Blackwell晶片,目前正在優化其伺服器以充分利用這些新晶片。這種優化利用了 NVIDIA 先進的 Infiniband 網路技術和創新的閉環液體冷卻系統。

Microsoft Azure 是第一個部署@nvidia的 Blackwell 架構和 GB200 驅動的 AI 伺服器的雲端平台。我們正在利用 Infiniband 網路和尖端的閉環液體冷卻來增強各個級別的性能,以支援世界領先的人工智慧模型。欲了解更多信息,請訪問 MS Ignite。pic.twitter.com/K1dKbwS2Ew

– 微軟 Azure (@Azure) 2024 年 10 月 8 日

此外,微軟執行長 Satya Nadella 也分享了 GB200 部署的更新:

我們與 NVIDIA 的持久合作和持續創新正在引領產業步伐,為最複雜的人工智慧工作負載提供支援。https://t.co/qaEoSv8dm5

— 薩蒂亞·納德拉 (@satyanadella) 2024 年 10 月 8 日

此外,NVIDIA 最近也向 OpenAI 團隊交付了 DGX B200 的初始工程版本之一:

看看剛剛到達我們辦公室的東西。感謝@nvidia向我們發送了 DGX B200 的首批工程單元之一。pic.twitter.com/vy8bWUEwUi

— OpenAI (@OpenAI) 2024 年 10 月 8 日

鑑於各種潛在客戶對 NVIDIA Blackwell 平台的廣泛興趣,微軟和 OpenAI 成為首批接收這些晶片的公司是有道理的。與Google和AWS 等其他主要雲端供應商擁有自己的AI 訓練基礎設施(Google擁有張量處理單元,AWS 則開發客製化晶片)不同,微軟和OpenAI 完全依賴NVIDIA 的技術,將它們定位為NVIDIA 的一些最大客戶。

有關 NVIDIA GB200 部署的更多詳細資訊預計將在 11 月舉行的 Ignite 會議上由 Microsoft 提供。

閱讀更多

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *