
新聞說:鴻海今天上午宣布,鴻海研究院推出第1版具有推理能力的人工智慧(AI)繁體中文大型語言模型,未來將透過導入AI大型語言模型,強化智慧製造、智慧電動車、智慧城市等3大平台的數據分析效率。在模型訓練過程中,鴻海說明,輝達提供Taipei-1超級電腦以及技術諮詢,讓鴻海研究院透過使用輝達NeMo人工智慧模型服務,順利完成模型訓練。鴻海上午透過新聞稿宣布,鴻海研究院推出首款繁體中文AI大型語言模型(LLM),內部開發代碼FoxBrain,FoxBrain模型原來為內部應用設計,涵蓋數據分析、決策輔助、文書協作、數學、推理解題與代碼生成等功能,後續將對外開源分享。「開源」意指支撐AI的運算代碼公開給其他企業和研究人員,讓所有人都能使用這些技術來建構、推廣自己的產品。鴻海指出,FoxBrain作為鴻海研究院AI推理LLM模型訓練成果,展現理解與推理能力,在數學與邏輯推理測試中表現出色,還能強化台灣使用者的語言風格。鴻海研究院說明,人工智慧研究所在FoxBrain訓練過程中,使用120張輝達H100繪圖處理器,並透過NVIDIA Quantum-2 InfiniBand網路擴展,僅花費約4週時間完成,模型訓練方式低成本且更具效率。在相關規格與訓練策略上,鴻海研究院指出,FoxBrain透過自主技術,建立24類主題的資料增強方式與品質評估方法,生成98B詞元高品質中文預訓練資料,上下文處理長度128K token,總計算力花費2688 GPU days,採用多節點平行訓練架構,確保高效能與穩定性。在測試結果,鴻海研究院表示,FoxBrain在數學領域較基礎模型Meta Llama 3.1全面提升,相較於目前最好的繁體中文大模型Taiwan Llama,在數學測試中取得顯著進步,並在數學推理能力上超越Meta目前已推出的同等級模型,與DeepSeek蒸餾模型仍有些微差距,但表現已相當接近世界領先水準。鴻海指出,未來將透過導入AI大型語言模型,強化智慧製造、智慧電動車、智慧城市等3大平台的數據分析效率,讓FoxBrain成為驅動智慧應用升級的重要引擎,未來將對外開源分享,擴大模型運用範圍,與技術夥伴共同推動AI在製造業、供應鏈管理與智慧決策領域應用。鴻海表示,FoxBrain成果將於美國時間3月17日起登場的輝達年度GTC大會專題演講中,以From OpenSource to Frontier AI: Build, Customize, and ExtendFoundation Models為主題,首次對外發表。

鴻海出的FoxBrain和市面上的模型相比排名?
您好!您問到鴻海研究院推出的FoxBrain與市面上其他模型的排名比較。根據目前可得的資訊,FoxBrain是鴻海研究院開發的一款繁體中文大型語言模型(LLM),專注於推理能力,並在數學與邏輯推理方面有突出表現。以下是對其與市面模型比較的分析:
FoxBrain的基本情況
基礎架構:FoxBrain基於Meta Llama 3.1打造,擁有70B(700億)參數。
訓練效率:使用120張NVIDIA H100 GPU,透過高效訓練策略在約4週內完成,總計耗費2688 GPU days,生成98B高品質中文詞元(tokens),上下文處理長度達128K。
特點:強調數學與邏輯推理能力,並針對台灣使用者的語言風格進行優化。功能涵蓋數據分析、決策輔助、文書協作、數學推理解題與代碼生成等。
與市面模型的比較
根據鴻海研究院的測試結果(特別是在TMMLU+測試資料集上),FoxBrain與幾個主要模型的對比如下:
Meta Llama 3.1(70B)
FoxBrain在數學領域全面超越基礎模型Meta Llama 3.1,尤其在推理能力上表現更優。
這表明FoxBrain在優化過程中針對特定領域(特別是數學與邏輯)進行了顯著提升。
Taiwan Llama(70B)
相較於目前被認為是最佳繁體中文大模型的Taiwan Llama,FoxBrain在數學測試中取得顯著進步。
在TMMLU+的多數領域中,FoxBrain的表現優於同規模的Llama-3-Taiwan-70B,特別是在數學與邏輯推理方面。
DeepSeek(蒸餾模型)
FoxBrain與DeepSeek的蒸餾模型相比仍有微小差距,但整體表現已非常接近世界領先水準。
DeepSeek以高效蒸餾技術聞名,FoxBrain能在推理能力上逼近其表現,顯示其潛力。
排名推估
目前沒有統一的全球LLM排名直接包含FoxBrain(因為它是新推出的模型,且尚未廣泛參與公開基準測試如MMLU、GLUE等)。但從鴻海提供的數據推測:
繁體中文領域:FoxBrain可能位居前列,超越Taiwan Llama,尤其在數學與邏輯推理應用中具優勢。
全球範圍:與國際頂尖模型(如GPT-4、Grok、Claude等)相比,FoxBrain的70B參數規模不算最大,且尚未有全面對比數據。但其逼近DeepSeek的表現,顯示它在特定領域可能進入全球二線頂尖水平,與Meta Llama 3.1升級版或Mistral等競爭。
優勢與局限
優勢:
訓練效率高,成本低,適合企業應用。
針對繁體中文與台灣語言風格優化,具有在地化優勢。
數學與推理能力突出,可能在教育、科研或專業領域有競爭力。
局限:
目前數據僅來自鴻海自評,未經第三方廣泛驗證。
與更大參數模型(如GPT-4的萬億級參數)相比,通用性可能稍遜。
尚未完全開源,應用範圍和生態系統影響力待觀察。
結論:FoxBrain在繁體中文模型中排名靠前,特別是在數學與邏輯推理領域,可能超越Taiwan Llama,成為台灣本土AI技術的新標竿。全球層面,它與DeepSeek等模型接近,位於中上水平,但要挑戰GPT-4或Grok等頂尖模型,還需更多數據支持與應用驗證。如果您需要更精確的排名或特定測試數據,可以等待FoxBrain在即將於3月17日NVIDIA GTC大會上的發表,或後續的開源測試結果。
台灣有哪一些企業有出自己的大語言模型?
截至目前(2025年3月9日),台灣有幾家企業或機構積極投入開發自己的大型語言模型(LLM),主要集中在科技公司、研究機構與政府支持的計畫。以下是一些已知開發或推出自家大語言模型的台灣企業或組織:
1. 鴻海科技集團
模型名稱:FoxBrain
詳情:鴻海研究院於2025年推出FoxBrain,這是一款基於Meta Llama 3.1(70B參數)開發的繁體中文大語言模型,專注於數學與邏輯推理能力。FoxBrain使用120張NVIDIA H100 GPU訓練,生成98B高品質中文詞元,上下文長度達128K。該模型針對台灣語言風格優化,應用於數據分析、決策輔助、文書協作等領域,並計劃在3月17日的NVIDIA GTC大會上進一步展示。
特色:推理能力強,訓練效率高,具在地化優勢。
2. 台智雲
模型名稱:Formosa Foundation Model
詳情:台智雲(華碩子公司)推出Formosa Foundation Model,這是台灣首個企業級繁體中文大語言模型,參數規模達1760億。該模型在台灣的Taiwania-2超級電腦上訓練,強調傳統中文應用與台灣文化適配,旨在降低企業進入LLM應用的技術門檻,提供高效能運算支援。
特色:參數量龐大,適合企業應用,支持AI 2.0趨勢。
3. 長春集團與合作夥伴
模型名稱:Taiwan Mixture of Experts(TAME)
詳情:由長春集團聯合和碩、聯詠、長庚紀念醫院、TechOrange及國立台灣大學開發,於2024年6月30日釋出。TAME使用NVIDIA的Taipei-1超算訓練,數據量近5000億tokens,針對台灣在地需求優化。在台灣司法考試中表現優於GPT-4o,顯示其專業領域能力。
特色:開放原始碼,跨產業合作,擅長法律、醫學等專業應用。
4. 國家科學技術委員會(NSTC)與相關單位
模型名稱:TAIDE
詳情:TAIDE(Trustworthy AI Dialogue Engine)是由國科會主導、學術單位如中央研究院參與開發的台灣本土LLM計畫,基於Meta Llama 2打造。第一階段於2024年推出7B與13B版本,後於Meta Llama 3基礎上更新為Llama 3-TAIDE-LX-8B-Chat-Alpha1。訓練數據來自政府機關(如教育部)與中央社新聞(約400萬篇),強調繁體中文與台灣文化特色,應用於教育、醫療與法律等領域。
特色:政府支持,注重可信度與在地化,開放部分版本供研究與商用。
其他潛在參與者
台灣大哥大(Taiwan Mobile)或相關科技公司:雖未明確公布自家LLM,但台灣電信與科技大廠可能參與相關AI計畫,或與上述機構合作開發應用。
學術與產業聯盟:如國立陽明交通大學人工智慧創新研究所,參與TAIDE與TAME等計畫,提供技術支援。
總結
目前台灣開發自家大語言模型的企業以鴻海(FoxBrain)、台智雲、長春集團以及國科會為主。这些模型多數針對繁體中文與台灣在地需求進行優化,應用範圍涵蓋企業服務、教育、醫療與法律等。隨著AI技術發展,未來可能有更多台灣企業加入這一領域,尤其是在半導體與科技產業的推動下。

上面台灣企業出的AI大語言模型哪一家出的最好?
要判斷台灣企業推出的AI大語言模型中哪一家「最好」,需要從不同維度來評估,例如參數規模、訓練效率、性能表現(基準測試)、應用領域、在地化程度以及實際使用者的反饋。由於這些模型公開資訊有限,且尚未全部參與全球統一基準測試(如MMLU、GLUE等),以下是基於現有資料的分析與比較:
候選模型概覽
鴻海 - FoxBrain
參數規模:70B(700億)
性能:在TMMLU+測試中,數學與邏輯推理能力超越Meta Llama 3.1 70B及Taiwan Llama 70B,接近DeepSeek蒸餾模型。
訓練:120張NVIDIA H100 GPU,4週完成,生成98B中文詞元,上下文長度128K。
優勢:推理能力強,訓練效率高,針對台灣語言風格優化。
應用:數據分析、決策輔助、文書協作、數學推理解題、代碼生成。
局限:數據僅來自鴻海自評,未廣泛驗證;通用性可能不如更大模型。
台智雲 - Formosa Foundation Model
參數規模:1760B(1760億)
性能:具體基準測試數據未公開,但強調企業級應用與繁體中文適配。
訓練:在Taiwania-2超級電腦上完成,規模龐大。
優勢:參數量最大,適合企業應用,支持AI 2.0趨勢。
應用:企業級解決方案,降低技術門檻。
局限:缺乏公開性能數據,實用性待驗證。
長春集團 - Taiwan Mixture of Experts(TAME)
參數規模:未明確公布,但屬MoE架構(參數效率高,可能數百億級)。
性能:在台灣司法考試中超越GPT-4o,專業領域表現突出。
訓練:使用NVIDIA Taipei-1超算,數據量近5000億tokens。
優勢:開放原始碼,跨產業合作,擅長法律、醫學等專業領域。
應用:司法、醫療、教育等垂直領域。
局限:通用性可能不如全能型模型。
國科會 - TAIDE
參數規模:最新版本Llama 3-TAIDE-LX-8B(80億),早期版本有7B與13B。
性能:基於Llama 3優化,強調可信度與在地化,未公布超越國際頂尖模型的數據。
訓練:使用政府與新聞數據(如400萬篇中央社文章)。
優勢:政府支持,免費開放部分版本,適合教育與公共服務。
應用:教育、醫療、法律等公共領域。
局限:參數規模較小,性能可能不如70B或更大模型。
比較與評估
1. 性能(推理與專業能力)
最佳:TAME - 在司法考試中超越GPT-4o,顯示其在專業領域(法律、醫學)的強大能力。
次佳:FoxBrain - 數學與邏輯推理超越Llama 3.1與Taiwan Llama,接近DeepSeek。
Formosa與TAIDE:缺乏具體對比數據,但Formosa可能因參數量大而有潛力,TAIDE則偏向穩定性而非頂尖性能。
2. 參數規模
最佳:Formosa Foundation Model - 1760億參數遠超其他模型,理論上具備更強大的潛力。
次佳:FoxBrain - 70億參數在中大型模型中具競爭力。
TAME與TAIDE:TAME參數未明確公布,TAIDE規模較小(8B)。
3. 在地化與實用性
最佳:FoxBrain與TAIDE - 兩者都針對台灣繁體中文與文化進行深度優化,FoxBrain更偏商業應用,TAIDE則適合公共服務。
次佳:TAME - 強調在地需求,但專業領域更窄。
Formosa:在地化程度高,但具體應用案例較少披露。
4. 開放性與生態影響
最佳:TAME - 開放原始碼,促進產業與學術合作。
次佳:TAIDE - 部分版本免費開放,具公共價值。
FoxBrain與Formosa:尚未完全開源,影響力待觀察。
5. 訓練效率與成本效益
最佳:FoxBrain - 4週訓練完成,成本相對低(約$3.5M-$4M美元),效率極高。
其他:Formosa與TAME使用超算,成本可能更高;TAIDE規模小但未公布效率數據。
結論:哪家最好?
綜合最佳:鴻海 - FoxBrain
理由:FoxBrain在推理能力、訓練效率與在地化應用上表現均衡,70B參數規模適中,成本效益高,且即將在NVIDIA GTC大會展示,顯示其技術成熟度與國際潛力。
專業領域最佳:長春集團 - TAME
理由:若專注法律、醫學等垂直領域,TAME因超越GPT-4o的表現而勝出,且開放原始碼具長期價值。
潛力最佳:台智雲 - Formosa Foundation Model
理由:1760億參數理論上最具潛力,但需更多性能數據與應用案例支持。
公共服務最佳:國科會 - TAIDE
理由:適合教育與政府應用,開放性與可信度高,但性能稍弱。
我的推薦
如果您問的是「整體最好」,我認為FoxBrain目前最具競爭力,因其兼顧性能、效率與在地化,且背靠鴻海的產業資源。若您有特定需求(例如法律AI或超大規模模型),TAME或Formosa可能更適合。