(台北29日讯)台湾鸿海旗下研究团队自研的大型语言模型“Foxconn Brain”近期正式对外曝光。
鸿海研究所所长栗永徽于产业论坛中指出,该模型不仅在繁体中文理解、逻辑推理与数字运算等面向,超越原始基础模型Meta Llama 3.1,表现更已直逼中国DeepSeek,接近世界顶标水平,显示台湾在全球AI技术开发领域的竞争力不容小觑。
栗永徽表示,“Foxconn Brain”的诞生主因是客户对数据主权与隐私高度重视。若仰赖OpenAI或其他外部模型,可能使内部或客户敏感数据暴露于风险之中,因此鸿海决定建立自有模型,强化安全控管。
强调资源最佳化
同时,该模型也将成为推动制造流程升级、企业数码转型、与实践ESG永续目标的核心引擎。
从训练策略来看,“Foxconn Brain”强调资源最佳化,而非单纯仰赖大规模算力堆叠。
鸿海团队仅使用120颗英伟达(NVIDIA)H100 GPU,仅花30天即完成训练,过程中透过模型切分、数据分流与多GPU并行运算等方式,有效缩短时程、压低成本,展现高度技术成熟度。
栗永徽说,“我们选择用有限资源做出顶尖表现,证明不一定要烧钱才能打造世界级模型,这就是台湾实力”。
与Genesis平台衔接
不同于泛用型语言模型,“Foxconn Brain”聚焦于制造场域应用,尤其针对排程逻辑、品质管控、能源效率等领域进行语料强化,借由AI推理能力解构复杂生产链结构,协助企业精准决策。
此技术也将与鸿海已发表的Genesis智能平台相互衔接,形成完整的AI驱动工业体系。
在开发模式上,鸿海同步采取社群导向策略,规划将Foxconn Brain开源释出,透过开发者社群参与与优化,拓展技术落地场景。该模型目前已在高雄数据中心完成预训练部署,未来也将成为鸿海全球AI数据中心网路的一部份。
栗永徽强调,“Foxconn Brain”是台湾在全球AI赛局中的重要代表作,证明本土团队在技术实力与产业应用两端均具备关键能量,踏实地建构产业未来。
要看最快最熱資訊,請來Follow我們 《東方日報》WhatsApp Channel.
