明敏 發自 凹非寺
量子位 | 公眾號 QbitAI
千億參數內最強推理大模型,剛剛易主了。
32B——DeepSeek-R1的1/20參數量;免費商用;且全面開源——模型權重、訓練數據集和完整訓練代碼,都開源了
這就是剛剛亮相的Skywork-OR1 (Open Reasoner 1)系列模型
通用32B尺寸(Skywork-OR1-32B)完全超越同規模阿里QwQ-32B;代碼生成媲美DeepSeek-R1,但性價比更高。
△Skywork-OR1-32B-Preview
數學推理方面:7B、32B都達到同規模最優,數學專項模型(Skywork-OR1-Math-7B)表現更突出。
Skywork,天工是也,來自AIGC巨頭玩家昆侖萬維。
Skywork-OR1系列模型現已全面開源,模型權重、訓練數據集和完整訓練代碼,所有資源均已上傳至GitHub和Huggingface平臺。配套的技術博客已發布于Notion平臺,詳細闡述了數據處理流程、訓練方法和關鍵技術發現,為社區提供了完全可復現的實踐參考。
- Skywork-OR1系列開源地址:https://github.com/SkyworkAI/Skywork-OR1 (包含模型,代碼,數據)
- 昆侖萬維天工團隊更多開源項目:https://huggingface.co/Skywork
目前Skywork-OR1-7B和Skywork-OR1-32B的能力還在持續提升,在兩周內會發布兩個模型的正式版本,同時也會推出更為系統詳盡的技術報告,分享推理模型訓練中的經驗與洞察。
3款模型全量開源
Skywork-OR1 (Open Reasoner 1)系列開源共有3款模型:
- Skywork-OR1-Math-7B:專注數學領域的專項模型,同時也具有較強的代碼能力。
- Skywork-OR1-7B-Preview:融合數學與代碼能力,兼顧通用與專業性
- Skywork-OR1-32B-Preview:面向高復雜度任務、具備更強推理能力的旗艦版本
團隊對比了Skywork-OR1系列在AIME24、AIME25、LiveCodeBench上的表現。
AIME24/25是美國數學邀請賽基準測試,LiveCodeBench主要評估大語言模型代碼生成和編程能力。
在評測方面,Skywork-OR1系列模型引入avg@k作為核心評估指標,用于衡量模型在進行k次嘗試時成功解決問題的平均表現
傳統的pass@k指標僅關注“至少一次成功”,相對而言avg@k更關注模型的穩定性和整體推理能力,為模型實際落地提供更全面真實的參考。
在數學方面,通用模型Skywork-OR1-7B-PreviewSkywork-OR1-32B-Preview在AIME24與AIME25數據集上均實現了同參數規模下最優表現,32B整體表現基本與DeepSeek-R1齊平。
編程方面,通用模型Skywork-OR1-7B-Preview與Skywork-OR1-32B-Preview在LiveCodeBench上均取得了同等參數規模下的最優性能。
整體而言,Skywork-OR1-32B-Preview甚至與DeepSeek-R1的差距非常微小。要知道后者的參數規模是前者的20倍,這意味著Skywork-OR1能帶來更具性價比的性能表現。
由此綜合來看,Skywork-OR1-32B-Preview成為當前同規模最強中文推理模型,也是現役支持免費商用的模型中最強且最具性價比的成員之一。
此外,數學專項模型Skywork-OR1-Math-7B在AIME24/25的表現遠超當前主流7B級模型,甚至接近蒸餾版Deepseek-32B模型同等水平(DeepSeek-R1-Distill-Qwen-32B)。
如下為該模型在AIME24上的訓練準確率曲線。
最終模型在AIME24和AIME25上分別達到69.8%和52.3%,超越了OpenAI-o3-mini (low),達到了當前尺寸SOTA性能。與此同時,該專項模型在代碼領域也表現出了較好的泛化性(訓練后,Livecodebench從37.6%提升到43.6%)。
△OpenAI-o3-mini(low)的AIME24分數來自官網,AIME25分數來自評測網站https://matharena.ai/
去年11月,昆侖萬維發布國內首款中文復雜推理模型Skywork-o1,Skywork-OR1系列模型正是在此基礎上迭代而來。
不同于簡單復刻OpenAI o1模型,Skywork-o1內生出了思考、計劃、反思等能力。它共包括三款模型Skywork-o1-Open、SI’m kywork-o1-Lite和Skywork-o1-Preview,分別適用于不同的應用場景,可以滿足開源到高性能推理的多樣化需求。
Skywork-OR1系列站在Skywork-o1的肩膀上有了更強基座,但想要如此強大,也離不開一系列先進技術加持。
背后秘訣:AGI技術洞藏,訓練效率提升50%
Skywork-OR1在數據處理、訓練策略等方面都做了進一步創新。
首先在數據方面。
為提升模型在數學和代碼方面能力,Skywork-OR1構建了一個高質量數學和代碼數據集。
團隊設計了三個標準進行數據篩選:可驗證性(Verifiable)、正確性(Correct)與挑戰性(Challenging),剔除無法自動驗證的證明類題目、有誤題目、和缺少unit test的代碼問題。
數學領域共計收集11萬道題目,主要依賴NuminaMath-1.5(含約89.6萬題),選用如AIME和Olympiads等較難子集,并補充了如DeepScaleR、Omni-MATH、AIME 1983-2023難題來源。
代碼領域收集了13.7k條高質量代碼問題,主要以LeetCode和TACO數據為主,保留了單元測試完整、驗證通過的問題,并進行向量級語義去重。
在數據過濾部分,團隊對每道題進行了多輪采樣并驗證答案,以避免“全對”或“全錯”現象對策略學習無效——模型生成全部錯誤,無法提供有效的學習信號;“全對”意味著模型已完全掌握,繼續學習會浪費計算資源。
并通過人類審核結合LLM自動判題機制,對語義不清、信息不全、格式錯誤或含有無關內容的項目進行清理。使用LLM-as-a-Judge剔除掉約1-2K道質量不達標的數學題。
其次在強化學習部分,Skywork-OR1使用GRPO(Group Relative Policy Optimization)進行訓練,并引入一系列優化策略。
在訓練時數據優化上,一方面采用雙重過濾策略:
- 離線過濾:訓練前使用待訓練模型評估數據,剔除正確率為0或1的樣本;
- 在線過濾:每個epoch動態移除上一輪已完全掌握的數據,確保模型持續面對有挑戰性的內容。
另一方面使用拒絕采樣(Rejection Sampling)進行更精細的實時篩選,在每個訓練步驟中動態剔除當前訓練步中采樣正確率為0或1的樣本。這樣可以維持policy loss、entropy loss和KL loss的合理比例,防止非policy loss比重異常增加導致的訓練不穩定。
在訓練Pipeline優化上主要做了兩方面的探索。
(1)多階段訓練(Multi Stage Training):從小窗口開始,逐步增加上下文長度(seq_len),可以促使模型在有限token內高效完成任務;隨后逐步擴展窗口大小,迭代增加生成長度,使模型逐漸掌握更復雜的長鏈思維能力。實驗證明,多階段訓練能顯著縮短訓練時間,同時完全保持模型的長度擴展能力。
(2)截斷優勢掩碼(Truncated Advantage Mask):在多階段訓練初期,由于上下文窗口限制,復雜問題的回答可能被截斷。因此團隊研究了兩種處理窗口限制下截斷樣本的策略Adv-Mask Before(計算優勢前排除截斷樣本)和Adv-Mask After(計算后將截斷樣本優勢置零)。證明即使不屏蔽截斷樣本,模型也能有效適應并迅速提升性能,也證明多階段訓練框架的魯棒性。
此外,在強化學習訓練中還要保障模型的探索能力。
團隊進行了三方面探索。
第一,高溫度采樣。采用τ=1.0(高于常見的0.6)維持更高群組內多樣性,既保證足夠正確樣本提供學習信號,又允許模型探索更廣泛解決路徑。
第二,提升內在訓練多樣性。通過精細數據過濾、增加批量大小和減少數據重復使用,可以從源頭上防止模型過早優化到單一輸出方向,同時也保持較高熵值,避免局部最優。
第三,自適應熵控制。只有在熵值低于閾值時才提供熵增加鼓勵,設定目標熵值并動態調整損失系數,同時最小化對正常訓練軌跡的干擾。
最后在保障強化學習訓練的穩定性,團隊對損失函數進行優化。
第一,移除KL損失。研究中發現即使基于高質量SFT模型訓練,KL損失仍限制性能提升。因此,除特定階段外,團隊在所有公開發布的Skywork-OR1系列模型中均未使用KL損失項,這使模型能夠更充分地探索和優化推理能力。
第二,token級策略損失。移除了策略損失中的長度歸一化項,并將損失在訓練批次內的所有token上進行平均,以提升優化過程的一致性與穩定性。
(更多技術細節和實驗對比可以參照技術博客https://capricious-hydrogen-41c.notion.site/Skywork-Open-Reaonser-Series-1d0bc9ae823a80459b46c149e4f51680,或繼續關注后續發布的技術報告。)
在此訓練策略下,Skywork-OR1-7B和Skywork-OR1-32B-Preview通用推理模型仍處于持續提升狀態,本次開源是當前訓練過程中性能最佳的checkpoint。
預計兩周后,具備更全面能力提升及更強大推理能力的Skywork-OR1正式版本將與大家見面,同樣全面開源。
Hugging Face單月下載量超7萬
自2023年以來,在全面擁抱AIGC后,昆侖萬維一直堅持開源,推動技術平權。代表性動作包括:
- 2023年:開源百億級大語言模型Skywork-13B系列及600GB高質量數據集。
- 2024年:陸續開源數字智能體研發工具包AgentStudio、4000億參數MoE超級模型、Skywork-MoE、 Skywork-RM/PRM,Skywork-o1。
今年以來,開源的頻率變得更高。第一季度開源動作包括:
- 面向AI短劇生成的視頻生成模型SkyReels-V1:下載量周榜前十
- R1V視覺思維鏈推理模型:單月下載8.75k
- Skywork-OR1新系列:長思維鏈推理模型。
不難發現,昆侖萬維開源全面且徹底,同時兼顧產業需求。
一方面,它的基礎模型布局非常全面,覆蓋AIGC全領域,文生文、文生視頻、文生音樂等。
另一方面,這些模型從底層設計上即考慮了實際落地的需求。提供更高性價比、更節省算力,如SkyReels-V1則是看到了垂直領域的落地前景,模型下載量迅速增長也驗證了這一市場需求。
最關鍵的是,這些模型的開源程度也相當徹底,十分利于開發者使用。
在Hugging Face上,昆侖萬維開源模型的下載量相當可觀,累計上月下載量超過7萬。
△部分展示
如今,底層模型競爭日趨白熱化,全球AI領域正以驚人的速度迭代演進,幾乎每個月都有值得關注的模型發布,這種創新密度前所未有。
作為國內最早All in AIGC賽道的先行者之一,昆侖萬維自2023年起便構建了全方位的前沿布局:從基礎大模型到垂直應用,從技術研發到生態建設。尤其值得注意的是,昆侖萬維持續為開發者社區提供高質量的模型和工具鏈,這種堅持普惠的技術理念也為其提供了獨特競爭力。
當前,開源生態正展現出前所未有的活力。
這些開源創新正快速滲透到互聯網、制造業、醫療、教育等領域,推動著AI技術真正實現規模化落地。在這一進程中,以昆侖萬維為代表的開源踐行者的每一步探索,都將深刻影響AI產業的發展軌跡。
據說Skywork-OR1正式版,也已經快馬加鞭,即將對外發布。
Skywork開源系列(2025)傳送門:
1、中文推理模型Skywork-OR1:
https://github.com/SkyworkAI/Skywork-o1
2、視覺思維鏈推理模型Skywork-R1V:
https://github.com/SkyworkAI/Skywork-R1V
3、AI短劇生成模型SkyReels-V1:
https://github.com/SkyworkAI/SkyReels-V1
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.