智譜將開源 32B/9B 系列 GLM 模型,涵蓋基座、推理、沉思模型,均遵循 MIT 許可協(xié)議。該系列模型現(xiàn)已通過全新平臺 Z.ai 免費開放體驗,并已同步上線智譜 MaaS 平臺。
其中,推理模型 GLM-Z1-32B-0414 性能媲美 DeepSeek-R1 等頂尖模型,實測推理速度可達(dá) 200 Tokens/秒(MaaS 平臺 bigmodel.cn),目前國內(nèi)商業(yè)模型中速度最快。此外,其價格僅為 DeepSeek-R1 的 1/30。
智譜啟用全新域名 Z.ai,目前該平臺整合了 32B 基座、推理、沉思三類 GLM 模型,后續(xù)將作為智譜最新模型的交互體驗入口。
模型開源
本次開源的所有模型均采用寬松的 MIT 許可協(xié)議。這意味著可以免費用于商業(yè)用途、自由分發(fā),為開發(fā)者提供了極大的使用和開發(fā)自由度。我們開源了 9B 和 32B 兩種尺寸的模型,包括基座模型、推理模型和沉思模型,具體信息如下:
基座模型 GLM-4-32B-0414 擁有 320 億參數(shù),其性能可與國內(nèi)、外參數(shù)量更大的主流模型相媲美。該模型利用 15T 高質(zhì)量數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,特別納入了豐富的推理類合成數(shù)據(jù),為后續(xù)的強化學(xué)習(xí)擴展奠定了基礎(chǔ)。在后訓(xùn)練階段,除了進(jìn)行面向?qū)υ拡鼍暗娜祟惼脤R,我們還通過拒絕采樣和強化學(xué)習(xí)等技術(shù),重點增強了模型在指令遵循、工程代碼生成、函數(shù)調(diào)用等任務(wù)上的表現(xiàn),以強化智能體任務(wù)所需的原子能力。
GLM-4-32B-0414 在工程代碼、Artifacts 生成、函數(shù)調(diào)用、搜索問答及報告撰寫等任務(wù)上均表現(xiàn)出色,部分 Benchmark 指標(biāo)已接近甚至超越 GPT-4o、DeepSeek-V3-0324(671B)等更大模型的水平。
GLM-4-32B-0414 進(jìn)一步提升了代碼生成能力,可處理并生成結(jié)構(gòu)更復(fù)雜的單文件代碼。Z.ai 的對話模式內(nèi)建了預(yù)覽功能,支持對生成的 HTML 和 SVG 進(jìn)行可視化查看,便于用戶評估生成結(jié)果和進(jìn)行迭代優(yōu)化。
>>> 給我設(shè)計一個移動端機器學(xué)習(xí)平臺的 UI,其中要包括訓(xùn)練任務(wù),存儲管理,和個人統(tǒng)計界面。個人統(tǒng)計界面要用圖表展示用戶過去一段時間的各類資源使用情況。使用 Tailwind CSS 來美化頁面,把這 3 個手機界面平鋪展示到一個 HTML 頁面中
>>> 設(shè)計一個支持自定義函數(shù)繪制的繪圖板,可以添加和刪除自定義函數(shù),并為函數(shù)指定顏色。
>>> 用 svg 展示一個 LLM 的訓(xùn)練流程
GLM-Z1-32B-0414 是一款具備深度思考能力的推理模型。該模型在 GLM-4-32B-0414 的基礎(chǔ)上,采用了冷啟動與擴展強化學(xué)習(xí)策略,并針對數(shù)學(xué)、代碼、邏輯等關(guān)鍵任務(wù)進(jìn)行了深度優(yōu)化訓(xùn)練。與基礎(chǔ)模型相比,GLM-Z1-32B-0414 的數(shù)理能力和復(fù)雜問題解決能力得到顯著增強。此外,訓(xùn)練中整合了基于對戰(zhàn)排序反饋的通用強化學(xué)習(xí)技術(shù),有效提升了模型的通用能力。
在部分任務(wù)上,GLM-Z1-32B-0414 憑借 32B 參數(shù),其性能已能與擁有 671B 參數(shù)的 DeepSeek-R1 相媲美。通過在 AIME 24/25、LiveCodeBench、GPQA 等基準(zhǔn)測試中的評估,GLM-Z1-32B-0414 展現(xiàn)了較強的數(shù)理推理能力,能夠支持解決更廣泛復(fù)雜任務(wù)。
GLM-Z1-9B-0414 是一個驚喜。我們沿用了上述一系列技術(shù),訓(xùn)練了一個 9B 的小尺寸模型。雖然參數(shù)量更少,GLM-Z1-9B-0414 在數(shù)學(xué)推理及通用任務(wù)上依然表現(xiàn)出色,整體性能已躋身同尺寸開源模型的領(lǐng)先水平。特別是在資源受限的場景下,該模型可以很好地在效率與效果之間取得平衡,為需要輕量化部署的用戶提供強有力的選擇。
沉思模型GLM-Z1-Rumination-32B-0414 代表了智譜對 AGI 未來形態(tài)的下一步探索。
與一般推理模型不同,沉思模型通過更多步驟的深度思考來解決高度開放與復(fù)雜的問題。其關(guān)鍵創(chuàng)新在于,它能在深度思考過程中整合搜索工具處理復(fù)雜任務(wù),并運用多種規(guī)則型獎勵機制來指導(dǎo)和擴展端到端的強化學(xué)習(xí)訓(xùn)練。該模型支持“自主提出問題—搜索信息—構(gòu)建分析—完成任務(wù)”的完整研究閉環(huán),從而在研究型寫作和復(fù)雜檢索任務(wù)上的能力得到了顯著提升。
200 Tokens/秒
除模型開源外,基座、推理兩類模型也已同步上線智譜MaaS開放平臺(bigmodel.cn),面向企業(yè)與開發(fā)者提供API服務(wù)。
本次上線的基座模型提供兩個版本:GLM-4-Air-250414 和 GLM-4-Flash-250414,其中后者完全免費。
上線的推理模型分為三個版本,分別滿足不同場景需求:
GLM-Z1-AirX(極速版):定位國內(nèi)最快推理模型,推理速度可達(dá) 200 tokens/秒,比常規(guī)快 8 倍;
GLM-Z1-Air(高性價比版):價格僅為 DeepSeek-R1 的 1/30,適合高頻調(diào)用場景;
GLM-Z1-Flash(免費版):支持免費使用,旨在進(jìn)一步降低模型使用門檻。
對應(yīng)模型價格表:
Z.ai 上線
全新站點 Z.ai ,作為智譜最新模型交互體驗入口,將正式啟用!
Z.ai 目前已上線三款開源模型:
GLM-4-32B(基座模型):具備強大代碼生成能力,支持全新 Artifacts 功能,打造交互式開發(fā)體驗。
Z1-32B(推理模型):超強推理性能,在線體驗最高達(dá) 200 Tokens/秒 的極速輸出。
Z1-Rumination-32B(沉思模型):可以體驗 Deep Research 的強大能力,適合做深度調(diào)研。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.