新聞說:輝達又有新挑戰者?亞馬遜Trainium 3自研AI晶片號稱成本砍半、性能飆4倍,大型科技企業持續切入輝達(Nvidia)主導的AI晶片市場。亞馬遜雲端服務(AWS)周二正式推出第三代自研AI訓練晶片Trainium 3,性能號稱較上一代提升4倍,並能讓AI模型訓練與推論成本大降最多50%,劍指輝達GPU領地。在全球AI算力需求爆發、供應鏈多元化成為顯學之際,科技巨頭紛紛尋求脫離對輝達過度依賴。近期傳出Meta正洽談採購Google TPU,OpenAI也深化與AMD、博通(Broadcom)合作。AWS此時推出Trainium3,被視為強化算力自主的關鍵一步。根據媒體引述AWS指出,Trainium3已獲Anthropic、Decart等客戶導入,陣容更延伸至Karakuri、Metagenomi、理光、Splash Music等企業。AI影片新創Decart評估多家競品後指出,Trainium3讓其模型的影片生成幀率達到其他晶片的4倍。Decart共同創辦人暨執行長Dean Leitersdorf表示,該晶片「讓公司取得關鍵技術突破」。AWS副總裁、Trainium首席架構師Ron Diamant表示,Trainium系列的核心訴求是「最佳性價比」,並不認為自己在試圖取代輝達。儘管AWS與Google等巨頭力推自研晶片,輝達依舊握有市場壟斷性優勢,特別是在最關鍵的高階訓練市場。AWS許多大客戶,例如Anthropic同時也是輝達的大買家。AWS於10月曾透露,Anthropic已使用超過100萬顆Trainium2進行模型訓練;但僅一個月後,輝達宣布向Anthropic投資100億美元,作為大型晶片供應交易的一環,顯示市場仍對輝達高度倚賴。市場分析,AI企業走向多供應商策略,主要目標在於降低成本與強化供應韌性,並非完全替代輝達。目前Google TPU、AWS Trainium及其他定制化晶片更多扮演「補位」角色,提供成本與能效上的替代方案。
如果從「產業趨勢」、「供應鏈結構」以及「台股核心三大族群:台積電、鴻海、AI 伺服器鏈」的角度來看,AWS Trainium3、Google TPU 以及其他雲端巨頭的自研 AI 晶片,其實不是利空,反而對台股是中長期利多。
核心原因非常簡單:
全球任何一家科技巨頭,即便自研晶片,也沒有能力或意願自己製造——它們最終仍必須依賴台灣的晶圓製造、先進封裝、伺服器組裝、散熱與零組件。算力需求越大,台灣承接的面積只會越大。
台積電:確定受益者
AWS Trainium3 與 Google TPU 等幾乎全部都由台積電代工,這代表台積電的客戶基礎變得更廣且更穩定。除了 NVIDIA,高階 AI 晶片還包含 AWS、Google、Meta、AMD、Broadcom、OpenAI 等多家公司,全都依賴 TSMC 的先進製程與 CoWoS 封裝。
特別是 Trainium3 這類性能提升 4 倍的 ASIC,很可能會採用更先進的 5nm、3nm,並大量占用台積電缺口最大的 CoWoS 封裝產能。
AI ASIC 通常單價高、毛利高,對台積電 EPS 與營收貢獻相當明顯。
更重要的是,市場越來越採用「多供應商」策略,不再只依賴 NVIDIA。當晶片的種類越來越多、總量越來越大,台積電能承接的訂單其實是成倍增加,而不是被瓜分。
鴻海:正面但影響屬於「結構性利多」
鴻海的獲利不來自晶片,而是 AI 伺服器整機組裝、零組件、散熱與系統整合。
即便 AWS 不用 NVIDIA 的 GPU,伺服器本體仍然要有人做,而且規模會更大。
AWS、Google、Meta、OpenAI 的自研晶片伺服器,都不會自己在自家工廠組裝,實際組裝仍主要落在鴻海、廣達、緯創、英業達。目前 AWS 的大量 Cloud Server 仍由台灣廠商製造,Trainium3 伺服器也不例外。
而 AI ASIC 通常功耗高、密度大,散熱難度甚至比 GPU 更高。
液冷、沉浸式冷卻、背板散熱等技術需求上升,反而讓鴻海在機構件與散熱領域獲得更高 ASP,這是明顯的利多。
台灣 AI 伺服器與散熱供應鏈:最大受益族群
自研晶片不是取代 NVIDIA,而是增加「另一種平台」,這讓伺服器種類變多、出貨量變大。
以前只有 NVIDIA DGX 現在還有:
Google TPU server。
AWS Trainium pod。
Meta ASIC server
Broadcom 及OpenAI ASIC server。
AMD MI300 系列。
伺服器平台越多,台灣供應鏈出貨面積就越大。
不論是機殼、散熱、PCB、光模組、主機板,全部都會比過去更繁忙。
尤其散熱族群,因為 ASIC 通常意味著更高能效密度,液冷需求會快速上升,台灣廠商在全球市占率非常高,獲利空間自然擴大。
NVIDIA 仍是主導者,不會拖累台股
即使 Google、AWS、Meta 大力推動自研晶片,高階訓練市場仍屬於 NVIDIA 的絕對霸權。像 GPT-4、GPT-5、企業級大模型訓練等場景,全都離不開 H200、B100、B200、GB200。
自研 ASIC 多半用在推論、中階訓練或成本敏感的工作負載。它的角色是「補位」,而不是「取代」。
這反而讓算力更便宜、AI 使用量更大,企業會建更多機房、買更多伺服器,台灣供應鏈獲利空間進一步上升。
全部整合後的結論
AWS Trainium3、Google TPU、Meta 以及 OpenAI 的自研加速器,表面上是 NVIDIA 的挑戰者,但從供應鏈角度看,它們全都是台灣的客戶。
越多公司造晶片,台灣接單越多;
越多公司建伺服器,台灣組裝越賺;
越多平台競爭,算力越便宜,市場擴張越快。
因此,自研 AI 加速器潮流不是台股的利空,而是擴大台灣 AI 供應鏈版圖的利多。
個人股市研究觀察記錄文章目


