廣告區

2026年1月7日 星期三

1月7日!資料中心不再需要水冷式冷卻機?

 黃仁勳 CES 演講揭示 AI 新時代:從自駕實體 AI 到 Vera Rubin 超級平台,全面重塑運算版圖,在今年 CES 大展上,NVIDIA 執行長黃仁勳再次站上舞台,勾勒出下一個 10 到 15 年運算產業的關鍵轉折點。他指出,運算產業正迎來新一波「平台轉移」,而這一次的核心,不只是 AI 加速運算,而是「AI 應用程式本身,建立在 AI 之上」,整個電腦堆疊正被全面重塑。黃仁勳強調,「實體 AI」將成為最重要的突破之一。這類 AI 不僅能理解語言與影像,更必須理解真實世界的基本物理法則,例如重力、摩擦力與慣性,才能真正走入自駕車、機器人與現實應用場景。自駕 AI:三種電腦、重構世界理解能力,在自駕 AI 領域,NVIDIA 已建立一套完整且高度整合的技術體系。黃仁勳指出,實體 AI 需要三種電腦同時運作:第一是用於訓練大型模型的訓練電腦;第二是負責即時推論的邊緣或機器人電腦;第三則是專為模擬世界打造的模擬電腦,用來重現各種複雜且罕見的駕駛情境。其中最關鍵的核心之一,是名為 Cosmos 的世界基礎模型。Cosmos 並非傳統語言模型,而是專為「理解世界」而生。它能將物理世界的變化與語言對齊,例如描述「一顆球正在街道上滾動」。該模型透過網路規模影片、真實駕駛與機器人資料,以及 3D 模擬環境進行預訓練,為實體 AI 打下基礎。合成數據與 AlphaMo:讓自駕車學會「思考」,由於真實世界的駕駛數據取得成本高昂且數量有限,NVIDIA 大量運用 Cosmos 生成「合成數據」,創造符合物理規律、可重複驗證的環繞式影片,用於訓練自駕 AI,大幅提升模型學習效率。在此基礎上,NVIDIA 發表了 AlphaMo 模型,被定位為全球首個具備「思考與推理能力」的自動駕駛 AI。AlphaMo 採用端到端訓練架構,從攝影機影像直接輸出車輛行為,其訓練資料涵蓋人類駕駛里程、Cosmos 合成數據,以及數十萬筆精細標註範例。不同於傳統系統,AlphaMo不只是執行駕駛動作,它還能推理「為什麼要這樣做」、以及「車輛接下來可能的行進軌跡」。這種能力,正是解決自駕車長期面臨的「長尾問題」關鍵——即便遇到從未見過的情境,AI 仍能拆解為熟悉的小問題,做出合理判斷。與賓士攜手五年,自駕車今年正式上路,在商業化進程上,NVIDIA 已與 Mercedes-Benz 合作長達五年。黃仁勳透露,首批搭載 NVIDIA AV 堆疊、並採用 AlphaMo 模型的車款,將於今年正式上路:第一季在美國推出,第二季進軍歐洲,下半年則擴展至亞洲市場。

為確保最高安全等級,NVIDIA 採用雙系統設計,讓 AlphaMo 與傳統 AV 軟體堆疊同步鏡像運行。一旦安全評估系統判定風險升高,車輛便會立即退回更保守、穩定的防護模式,確保行車安全。Vera Rubin 平台登場,迎戰 AI 算力爆炸成長,除了自駕 AI,黃仁勳也直面 AI 算力的龐大挑戰。他指出,AI 模型規模正以每年 10 倍速度成長,加上推理階段因測試時規模擴展,生成的 token 數量每年增加約 5 倍,對運算平台提出前所未有的壓力。為此,NVIDIA 發布了以天文學家命名的 Vera Rubin 次世代電腦平台。該平台已全面投產,由六顆高度協同設計的晶片構成,象徵 NVIDIA 極端垂直整合策略的最新成果。新一代 GPU、CPU 與網路,全面提升效能與能效,Vera Rubin 平台的核心之一,是新一代 Reuben GPU。其浮點運算效能較 Blackwell 提升 5 倍,但電晶體數量僅增加至 1.6 倍,關鍵在於全新的 MVF FP4 張量核心,能依需求動態調整精度,在不犧牲準確度的情況下,大幅提高吞吐量。搭配的 Vera CPU 為 NVIDIA 客製化設計,擁有 88 個實體核心與 176 個執行緒,在功率受限的環境中,每瓦性能是現有頂級 CPU 的兩倍。在互連方面,平台整合 ConnectX-9 網卡與 BlueField-4 DPU,MVLink 6 交換機可連接 18 個運算節點、最多擴展至 72 顆GPU,其資料傳輸量甚至超越全球網際網路總流量。新一代 Spectrum X 乙太網 AI 交換機,則採用矽光子整合製程,提供 512 個 200 Gbit/s 埠口。熱水冷卻、能效翻倍,改寫資料中心規則,在能效與散熱上,Vera Rubin 平台的整體能效為 Grace Blackwell 的兩倍。即使整體功耗提高一倍,系統仍能使用 45°C 熱水進行冷卻,無需傳統冷水機,預估可為全球資料中心節省約 6% 的用電量。在實際效能上,Vera Rubin 的峰值推理效能提升 5 倍,訓練效能提升 3.5 倍。訓練一個 10 兆參數模型,所需系統數量僅為 Blackwell 的四分之一。總結來看,黃仁勳在 CES 傳遞的訊息相當明確:NVIDIA 不只是賣晶片,而是從晶片、網路、基礎設施、模型到應用,全面打造 AI 時代的運算平台,重新定義下一個十年的科技版圖。

新聞說:輝達執行長黃仁勳於 CES 展會談及下一代 Vera Rubin 平台可能大幅降低資料中心散熱需求,拋出「資料中心不再需要水冷式冷卻機」的新議題,頓時讓市場火熱的水冷散熱族群心涼,不僅Modine Manufacturing週二嚇跌7.5%,台股水冷散熱三雄奇鋐、雙鴻以及富世達也不好過,全面由紅翻黑,其中雙鴻千元關卡再告失守,千金股再失一員大將。黃仁勳登CES被市場視為大利多,沒想到卻為水冷散熱股帶來大災難,因黃仁勳在提及輝達下一代晶片已進入全面量產階段,由六顆晶片組成的 Vera Rubin 平台預計將於今年稍晚正式推出後,不經意提及輝達下一代 Vera Rubin 平台可大幅降低資料中心的散熱需求,並指出「資料中心不再需要水冷式冷卻機」。聽君一席話,水冷散熱族群立馬腿軟,Modine Manufacturing盤中急殺逾21%,終場以重挫7.5%作收,其他水冷散熱指標股含空調製造商 Trane Technologies 製造水冷式冷卻機與相關系統的江森自控國際也同步下殺,跌幅分別達到2.5%、崩跌6.2%。不僅美國水冷散熱股一片肅殺聲,早盤仍穩在盤上的水冷三雄含奇鋐、雙鴻、富世達開盤後不久也跟著不支倒地,由紅翻黑,奇鋐開高走低後,盤中低點直接下殺至1375元,回測季線支撐1377.5元,由12月31日盤中高點1560元起算,迄今日盤中低點1375元,才短短五個交日易日,就跌掉了185元,跌幅達11.86%。奇鋐小金雞富世達今日也同樣走出開高走低行情,惟就技術線型言之,表現更為疲弱,盤中低點落在1405元,不但浮現回測1400元整數關卡的可能,就連季線1459.75元和前波低點1450元都告失守。

黃仁勳談「不需水冷」引發震撼 AI供應鏈影響出現分化,輝達(NVIDIA)執行長黃仁勳於 CES 展會中提及,下一代 Vera Rubin 平台可大幅降低資料中心散熱需求,甚至不再需要水冷式冷卻機,相關談話意外引爆市場對水冷散熱產業前景的疑慮,水冷概念股隨即成為重災區。不過,法人指出,此一影響主要集中在「散熱設備供應鏈」,對於 AI 伺服器整機代工(ODM)族群的實質衝擊相對有限。水冷散熱族群首當其衝 估值面臨重新檢視,法人分析,奇鋐、雙鴻、富世達等水冷散熱廠商,過去股價強勢上漲,主要建立在「AI 伺服器功耗持續攀升、水冷滲透率快速提高」的成長假設之上。隨著輝達釋出新平台散熱需求可望下降的訊息,市場開始重新評估未來水冷設備投資動能,導致股價短線出現明顯修正。AI 伺服器 ODM 影響有限 屬情緒面波動,至於市場關心的 鴻海、廣達、緯創與英業達,法人普遍認為,這波利空並非直接衝擊其核心業務。鴻海在 AI 伺服器產業中,主力業務為整機組裝、機櫃與系統整合,散熱模組僅占整體 BOM 成本的一部分。法人指出,即便散熱規格由水冷轉向高效風冷,仍不影響 AI 伺服器出貨量,對營運衝擊有限。廣達為全球 AI 伺服器主要代工廠之一,直接面對的是輝達與雲端服務供應商(CSP)的算力需求。法人認為,只要 AI 算力建置需求持續,散熱設計變化僅屬規格調整,不至於影響接單動能。緯創同樣以 AI 伺服器組裝為主,短線股價可能受到族群氣氛影響而波動,但從基本面來看,訂單仍取決於 CSP 資本支出規模,並非單一散熱技術走向。英業達 AI 伺服器比重逐步提升,但整體營收結構仍相對分散,對水冷散熱依賴度不高,法人評估實質影響偏低。法人:影響的是「散熱結構」而非「AI需求」,整體來看,市場人士指出,黃仁勳的談話主要改變的是 資料中心散熱架構與設備投資方向,而非否定 AI 算力成長趨勢。短線因市場情緒與資金調整,可能出現「錯殺」現象,但中長期仍須回歸 AI 伺服器出貨量、雲端資本支出及實際功耗表現。法人提醒,投資人現階段宜區分「水冷散熱設備」與「AI 伺服器整機代工」兩大族群,避免將結構性利空與短期市場情緒混為一談,後續仍須觀察 Vera Rubin 平台實際量產後的功耗數據與客戶採用情況,才能更精準評估產業影響。

個人股市研究觀察記錄文章目