廣告區

2024年9月15日 星期日

9月15日!雲端大廠及企業跪求輝達供貨AI晶片!

 

新聞說:美國為了鞏固AI能源基礎設施的布局產業地位,12日才邀請了輝達執行長黃仁勳、OpenAI執行長奧特曼等美國AI巨擘領導人一起相聚白宮,近日又有一段影片流出,是甲骨文(Oracle)創辦人埃里森(Larry Ellison)與特斯拉執行長馬斯克在一場晚宴上,懇求輝達執行長黃仁勳提供AI GPU晶片。埃里森坦承當時對黃仁勳說,「我們需要你多拿走我們的錢」。甲骨文(Oracle)創辦人埃里森在公司最新的財報電話會議中透露,他不得不向輝達首席執行長黃仁勳「懇求」,為甲骨文提供最新的GPU。他還在社群媒體X上分享,「我和馬斯克、黃仁勳一起吃晚餐,我把這次的晚餐描述成我和馬斯克共同乞求黃仁勳給我們GPU」,「請拿走我們的錢,多吃一點。你吃太少了,我們需要你多拿走我們的錢」。埃里森在電話會議中補充道,「一切順利,確實起作用了。」從結果來看,這筆錢花得值得。Oracle宣布採用NVIDIA Blackwell超級叢集,提供企業強大運算能力,企業正在尋找更強大的運算能力,以支援處理他們的人工智慧(AI)工作負載及加快處理資料,Oracle Cloud Infrastructure(OCI)在其舉行的 Oracle CloudWorld 大會宣布,推出第一個zettascale (10的21次方級)運算規模 OCI Supercluster。此叢集由 NVIDIA Blackwell平台加速,幫助企業使用超過 10 萬顆 NVIDIA 最新一代 GPU 來訓練和部署下一代 AI 模型。Oracle表示,客戶可以經由 OCI Supercluster 選擇使用多種 NVIDIA GPU,並且將這些 GPU 部署在任何地方,包括內部部署、公有雲和主權雲端。建置在 Blackwell 架構上的OCI Supercluster 系統將於明年上半年推出,規模可擴充到使用 131,072 顆 Blackwell 架構 GPU,搭配適用於 RoCEv2 的  NVIDIA ConnectX-7 NIC 或 NVIDIA Quantum-2 InfiniBand 網路,可在雲端環境提供驚人的 2.4 zettaflops 峰值 AI 運算能力。Oracle率先曝光NVIDIA GB200 NVL72 液冷裸機執行個體,以用於支援執行生成式 AI 應用。這些執行個體能夠利用 Quantum-2 InfiniBand 進行大規模訓練,並且在更大規模的 72 個 GPU NVIDIA NVLink 網域內使用有著上兆個參數的模型即時進行推論作業,當成一個大型 GPU。OCI 今年將提供 NVIDIA HGX H200,透過 NVLink 與 NVLink Switch 在單一裸機執行個體裡連接 8 個 NVIDIA H200 Tensor 核心 GPU,並且在 RoCEv2 叢集網路上透過 NVIDIA ConnectX-7 NIC 擴充至 65,536 個 H200 GPU。想要大規模提供即時推論與加速訓練工作負載的客戶,可以訂購這款執行個體。OCI 還宣布全面推出適用於中階 AI 工作負載、NVIDIA Omniverse 與可視化的 NVIDIA L40S GPU 加速執行個體實例。即使是裝置未連線又或是位於遠端地點,Oracle 的邊緣產品同樣能夠針對單節點到多機架解決方案,在邊緣提供由 NVIDIA GPU 加速、具擴充能力的 AI。舉例來說,使用 Oracle Roving Edge Device v2 的小規模部署作業,如今最多可支援三個 NVIDIA L4 Tensor 核心 GPU。企業使用 NVIDIA 支援的 OCI Supercluster 來推動 AI 創新。像是基礎模型新創公司 Reka 利用叢集開發先進的多模態 AI 模型,以開發企業代理。

A大回答:甲骨文要打造一個10的21次方級運算規模 OCI Supercluster。此叢集由 NVIDIA Blackwell平台加速,幫助企業使用超過 10 萬顆 NVIDIA 最新一代 GPU 來訓練和部署下一代 AI 模型。今年四月多時,新聞有提到,全球軟體巨擘甲骨文(Oracle)規劃未來十年在日本投資逾80億美元(逾新台幣2,580億元)建設雲端資料中心,以滿足市場對AI和雲端基礎設施日益成長的需求。甲骨文大手筆投資AI伺服器,法人看好其主力供應商鴻海可望受惠。研調機構集邦科技(TrendForce)看好,2024年全球伺服器ODM廠以鴻海成長幅度最高,出貨量年增5%至7%,訂單包含戴爾16G平台、亞馬遜AWS Graviton 3與4、 Google Genoa與微軟Gen9等相關訂單。AI伺服器訂單方面,鴻海今年奪下甲骨文代工訂單,是一大斬獲,同時也承接部分亞馬遜AWS客製化晶片訂單。所以甲骨文要佈局一些GB200,這對鴻海來說就是利多,接下來會有愈來愈多的企業去佈局AI伺服器,這些下一代AI伺服器的單價高,也僅有鴻海這種有比較大的資產負債表的公司才能吃的下去,大家看一些新聞,分析師說廣達,緯創,緯穎,英業達能吃下多少的訂單或受惠多大,你就不用聽他們在鬼扯,這些公司的資產負債表就擺在那,之前這些公司還喜歡配出高股息,所以負債比都高達七成到八成,鴻海的負債比僅五成多,所以AI伺服器的商機如果比預期的更大,鴻海短時間還是能增加負債比去吃下更大的訂單,而那些高負債比及小資產的二線,三線及四線公司,他們手上的資金就不允許去接太大的訂單,之前鴻海財務長說,因為AI伺服器中的GPU單價高,所以客戶都喜歡用buy and sell 交易模式,這對鴻海這種高資產及低負債的公司有利,之前我就和大家說過,時間只要一拉長,一定就是鴻海這種龍頭企業會受惠,重點是GB200的單價這麼高,如果你是大公司,你敢把很大的訂單下給一些小公司嗎?鐵定是不敢的,隨著AI伺服器的訂單愈來愈火熱,再加上蘋果16高階款手機熱銷,外資群,主力,短線客及投機客就愈來愈不敢再壓制鴻海了,再壓制的話,冷不防出來個背骨仔,他就先吃足夠的股票然後在裡面等其他外資群及主力了。

法人提問:GB200的機櫃以及液冷系統中,有哪些零組件是鴻海現在能夠自製?以及未來有計畫要自製什麼樣的零組件,提升整個GB 200的margin。 

鴻海回答:在AI伺服器的重點在於前端的GPU模組以及基板,所以鴻海很專注在這些模組的開發。但是GB200為機櫃級AI伺服器產品,優異的性能除了GPU本身之外,也是最具價值的部分,包含四個部分:(1)GB200的計算托盤、(2)NV交換機托盤、(3)頂架式交換機、(4)散熱系統。由於這個產品需要龐大的能耗、數據傳輸、冷卻系統等關鍵技術,所以鴻海在ICT其他領域的產品或技術都可以被運用到新產品,我們也成為垂直整合度最高的廠商,也因此參與了以上所有主要組成元件的開發設計,測試跟生產階段。而機櫃級AI伺服器系統非常重要的集群測試,我們也在全球主要廠區建置完整測試系統,以滿足客戶的全球交付需求。至於外界很關心的液冷系統,實際上我們早在五、六年前就注意到這個趨勢,也一直默默的在開發相對應的產品,系統控制的程式也是我們自己設計,對於整個液冷系統具備完整的知識。在整個液冷系統的零組件當中,包含UQD、Cold Plate、Manifold、以及CDU這些產品我們都自行開發。這些方案我們都會提供給客戶,讓他們多一個選擇,當然最終都是由客戶決定。 有些零組件或模組,我們也會透過內部供應,當然也會跟其他供應商合作,這種模式在ICT產業是很常見的。我們認為AI伺服器產業的蓬勃發展,許多廠商都可以受惠,當然在產品架構越來越複雜的設計之下,具有上下游垂直整合能力的鴻海會受益最多。

個人股市研究觀察記錄文章目錄