來源:新智元
【導讀】推理黑馬出世,僅以5%參數(shù)量撼動AI圈。360、北大團隊研發(fā)的中等量級推理模型Tiny-R1-32B-Preview正式亮相,32B參數(shù),能夠匹敵DeepSeek-R1-671B巨獸。
2025年2月24日,由360與北京大學聯(lián)合研發(fā)的中等量級推理模型Tiny-R1-32B-Preview正式亮相,僅以5%參數(shù),逼近DeepSeek-R1-671B的性能。
核心突破:小模型,大能量
數(shù)學領域:以78.1分(AIME 2024評測)逼近原版R1模型(79.8分),遠超DeepSeek-R1-Distill-Llama-70B(70.0分);
綜合性能:在編程(LiveCodeBench 61.6分)、科學(GPQA-Diamond 65.0分)領域全面領先最佳開源70B模型DeepSeek-R1-Distill-Llama-70B;
效率躍遷:僅需5%參數(shù)量,性能達原版R1的95%以上,推理成本大幅降低。
技術革新:領域專精+模型融合
研究團隊使用「分治-融合」策略:
基于DeepSeek-R1生成海量領域數(shù)據(jù),分別訓練數(shù)學、編程、科學三大垂直模型;
通過Arcee團隊Mergekit工具智能融合,突破單一模型性能上限,實現(xiàn)多任務均衡優(yōu)化。
開源承諾:推動技術普惠
模型倉庫:https://huggingface.co/qihoo360/TinyR1-32B-Preview
即將公開完整技術報告、訓練代碼及部分數(shù)據(jù)集;
踐行開源精神,助力AI社區(qū)共筑高效推理新生態(tài)。
研發(fā)團隊表示:「Tiny-R1-32B-Preview的成功是站在了巨人的肩膀上,受益于開源社區(qū)精神,結合DeepSeek-R1蒸餾、DeepSeek-R1-Distill-32B增量訓練、模型融合等技術,使用360-LLaMA-Factory訓練而來,未來我們也將持續(xù)探索更輕量、更強大的模型,推動AI技術普惠化進程,并回饋開源社區(qū)。」
360 團隊: Lin Sun, Guangxiang Zhao, Xiaoqi Jian, Weihong Lin, Yongfu Zhu, Change Jia, Linglin Zhang, Jinzhu Wu, Sai-er Hu, Xiangzheng Zhang
北大團隊: Yuhan Wu, Zihan Jiang, Wenrui Liu, Junting Zhou, Bin Cui, Tong Yang
參考資料:
https://huggingface.co/qihoo360/TinyR1-32B-Preview
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.