新聞說:輝達(NVIDIA)於GTC大會上公布新一代「Blackwell」圖形處理器(GPU),當中的2個型號分別為B200,以及由2片 B200與1顆Grace CPU組合而成的 GB200,其中,GB200性能是H100的7倍、訓練速度提高4倍,在代工鏈中,鴻海、廣達成最大贏家。輝達指出,由2片B200 與1顆Grace CPU組合而成的 GB200,其性能與訓練速度的測定,是基於1750億組參數 GPT-3 模型的基準測試,舊式AI伺服器A100、H100、B100,是由8顆GPU組成1塊板子,再另外搭配CPU,GB200每個插槽可搭配2顆CPU加4顆GPU,算力性能大幅提升。業者指出,伺服器機架單位(Rack Unit)簡稱「RU」或「U」,是伺服器機架的尺寸單位,由美國電子工業聯盟(EIA)所定義,「1U」相當機架上3個插孔之間的距離,等於44.45公分(1.75英吋)的高度,舊式AI伺服器機架中,每組可以裝2台AI伺服器,新式GB200機架則可裝載18台1U的伺服器,產品平均售價優於前一代產品。以GB200的設計來看,基板數量少於前一代AI伺服器,而對於通訊速度與冷卻的規格要求更高,鴻海已成為GB200採用的高速交換機供應商,且具備從零組件、模組、整機到資料中心的垂直整合能力,與廣達皆具備整機櫃技術實力,將成為雙方在AI伺服器產業的重要優勢。
新聞說:輝達推出整合多顆Blackwell B200晶片架構號稱全世界最強大的的Grace超級晶片GB200,將兩個B200 GPU與Grace CPU連接。GB200驅動系統可透過新Quantum-X800網路獲得800Gb/s超高速網路。此外,輝達還推出GB200 NVL72液冷機架級系統,集成36個Grace Blackwell超級晶片,與傳統H100 GPU相比,在大模型推理上可提升30倍性能。基於GB200系統,輝達發布新一代DGX SuperPOD超級電腦平台,採用液冷設計,提供11.5 exaflops AI運算能力。SuperPOD可擴展至數萬個GB200超級晶片,並透過NVLink連接576個Blackwell GPU,獲取龐大共享記憶體。該平台具備智慧管理和持續運行能力,將極大推進大規模生成式AI的部署。除SuperPOD外,輝達也推出DGX GB200系統,提供144 petaflops AI性能、1.4TB GPU記憶體,且比上代快15倍。B200支援DGX SuperPOD配置,為企業部署AI提供彈性。黃仁勳並宣告最新的Blackwell平台及全新系統已獲多家科技巨頭支持,包括亞馬遜、谷歌、Meta、微軟、OpenAI、甲骨文等,凸顯其在AI加速運算領域的領導地位。Alphabet和Google執行長Sundar Pichai表示:「我們很高興與輝達長期合作,將利用Blackwell GPU為包括DeepMind在內的整個谷歌雲端客戶和團隊加速發現。」微軟執行長Satya Nadella則表示,透過導入GB200 Grace Blackwell處理器,微軟將為全球組織實現AI的承諾。OpenAI執行長Sam Altman認為,Blackwell「將加快我們推出領先模型的能力」。此外,Dell、Lenovo、美超微等硬體夥伴,以及Ansys、Cadence等工程模擬廠商都將提供基於Blackwell的產品,助力跨產業實現生成式AI和加速運算。