在全球AI算力競賽的焦灼時刻,在阿里系保有充足英偉達GPU庫存的條件下,螞蟻集團于2025年3月24日發布基于國產算力訓練的百靈-Ling系列MoE架構大模型,這一動作距離科大訊飛成功在昇騰國產算力集群上實現MoE模型推理方案僅過去13天。
這場戰略轉向,無疑為國產算力和國產大模型的全國產化帶來一劑強心針。
據報道,3月18日阿里巴巴CEO吳泳銘主張在阿里現有業務中全面實現“AI化”。阿里所有部門已被告知,他們2025年的績效將通過如何利用AI促進增長來評估。時隔一周,阿里系企業螞蟻集團便發表了AI方面最新進展的論文。
螞蟻集團Ling團隊推出的百靈輕量版參數規模為 168 億(激活參數 27.5 億),增強版基座模型參數規模高達 2900 億(激活參數 288 億),性能均達行業領先水平。
實驗表明,其3000億參數的MoE大模型可在使用國產GPU的低性能設備上完成高效訓練,性能與完全使用英偉達芯片、同規模的稠密模型及MoE 模型相當。
MoE模型訓練通常依賴英偉達H100 / H800等高性能GPU,成本高昂且芯片短缺,限制了其在資源受限環境中的應用。 直到今年3月,科大訊飛與華為聯合團隊宣布,成功在昇騰國產算力集群上實現MoE模型的大規模跨節點專家并行推理。
這是繼深度求索( DeepSeek )公開 MoE 訓練方案后,業界首個完全基于國產算力的解決方案。
星火大模型自2024年1月發布V3.5版本以來,一直是基于國產算力訓練的代表,至今仍是唯一的全棧國產化全民開放大模型。
本次科大訊飛與華為合作,通過算子融合、混合并行策略和通信計算并行優化等一系列創新,使得訊飛星火在國產算力上實現了顯著性能提升:單卡靜態內存占用縮減至雙機部署的1/4,效率提升75%,專家計算密度增加4倍,推理吞吐提升3.2倍,端到端時延降低50%。
科大訊飛稱,這一突破性的解決方案也將應用于訊飛星火深度推理模型X1的訓練加速,預期訓練時推理效率將提升200%。星火X1模型基于華為昇騰910B芯片,以70B參數量,實現了在數學能力上全面對標DeepSeek R1(參數量671B)和OpenAI o1,中文數學任務全面領先的效果。這種"小參數強算法"與"大模型低成本"的互補創新,形成對傳統算力范式的降維打擊。
美國對華AI芯片出口限制的持續加碼,加速了技術遷徙進程,而訊飛與螞蟻的實踐超越了硬件替代邏輯。
訊飛星火驗證了國產算力訓練MoE架構大模型的可行性,螞蟻百靈快速跟進取得突破,不僅驗證了算力自主的可能性,更揭示了全球AI競賽規則的深層變革——從硬件性能追逐轉向架構創新與場景適配的深度融合,從技術替代邏輯演變為創新范式的定義權之爭。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.