繼2月底推出新一代快思考模型混元Turbo S后,3月21日深夜, 騰訊宣布推出自研深度思考模型混元T1正式版, 并同步在騰訊云官網上線。
3月初,騰訊發布了混元Turbo S,有網友問:
安排——
其實,騰訊在2月就已經通過騰訊元寶開放了T1-preview模型。騰訊推出自研深度思考模型混元T1正式版,并在騰訊混元和騰訊云官網開放體驗,即將在騰訊元寶灰度上線。
效果如何?先直接看測試表現:
在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識及競賽級數學、邏輯推理的公開基準測試中,混元T1正式版的成績達到業界領先水平。
注:表格中,其它模型的評測指標來自官方評測結果,官方評測結果中沒有的部分來自混元內部評測平臺結果。
值得一提的是, 騰訊混元T1正式版采用Hybrid-Mamba-Transformer融合架構,工業界首次將混合Mamba架構無損應用于超大型推理模型。該架構針對長序列處理專項優化,實現首字秒出、吐字速度最快80tokens/s,并有效解決長文推理中的上下文丟失問題。定價方面,混元T1輸入價格低至每百萬tokens1元,輸出價格為4元,創行業新低。通過強化學習與數學、邏輯推理專項訓練,混元T1在多項基準測試中達到業界領先水平,技術普惠與成本優勢雙軌并行。
騰訊發布自研混元T1正式版
騰訊混元T1正式版如期發布。
之所以稱之為“如期發布”,是因為前不久騰訊混元自研的快思考模型混元Turbo S正式發布時,騰訊就曾表示,正式版的騰訊混元T1模型API也將很快上線,對外提供接入服務。
據知情人士介紹,騰訊混元T1正式版以混元Turbo S為基座打造,亮點在于其是能夠秒回、吐字快、擅長超長文處理的強推理模型,性能保持業界領先。
“混元T1正式版沿用了混元Turbo S的創新架構,采用Hybrid-Mamba-Transformer融合模式。這是工業界首次將混合Mamba架構無損應用于超大型推理模型。”上述知情人士說,這一架構顯著降低了訓練和推理成本,讓混元T1實現首字秒出,吐字速度達到最快80 tokens/s。
混元T1在超長文本推理領域也展現出獨特優勢,能夠有效解決長文推理中常見的上下文丟失和長距離信息依賴問題。同時,混合Mamba架構針對長序列處理進行了專項優化,提升了解碼速度。
通過大規模強化學習,并結合數學、邏輯推理、科學和代碼等理科難題的專項優化,混元T1正式版進一步提升了推理能力。與此前已上線騰訊元寶的混元T1-preview模型相比,綜合效果明顯提升。
騰訊方面提供的數據顯示,在體現推理模型基礎能力的常見Benchmark上,以及在中英文知識及競賽級數學、邏輯推理的公開基準測試中,混元T1的成績也達到業界領先推理模型的水平。此外,T1還在多項對齊任務、指令跟隨任務和工具利用任務中展現出了非常強的適應性。
值得一提的是,目前,混元T1已在騰訊云官網上線。定價方面,輸入價格為每百萬tokens 1元,輸出價格為每百萬tokens 4元。
騰訊混元大模型持續快速迭代
今年以來,騰訊混元大模型持續快速迭代,AI似乎已成為騰訊內部最大的驅動力。
其推出了深度思考模型T1 Preview和快思考模型Turbo S,并已廣泛應用于騰訊元寶、ima、騰訊文檔、微信讀書、搜狗輸入法、QQ瀏覽器等多款內部產品。騰訊混元積極擁抱開源,其開源模型全面覆蓋文本、圖像、視頻和3D生成等多個模態。
業內認為,這一戰略選擇的背后,一方面基于騰訊長期以來堅持技術普惠的理念,另一方面也得益于騰訊在用戶與產業多端的場景與生態優勢,為AI技術的落地提供了廣闊空間。
在日前公布的2024年財報中,騰訊年研發投入707億元創下紀錄。對于業務側,AI技術對微信新芽業務的提振效應,推動了騰訊營銷服務板塊的快速增長。其2024年第四季度在AI領域的資本開支超390億元,2025年將持續加碼,AI戰略已進入重投入期。
騰訊董事會主席兼首席執行官馬化騰表示,“受益于AI賦能的廣告平臺升級、視頻號用戶參與度提升以及長青游戲的增長,我們2024年第4季取得雙位數的收入增長,并持續提升運營效率。數月前,我們重組了AI團隊以聚焦于快速的產品創新及深度的模型研發,增加了AI相關的資本開支,并加大了我們對原生AI產品的研發和營銷力度。”他表示。
巨頭競逐AI
我國AIGC應用或已進入加速期
隨著2025年我國進入科技突破大年,各大互聯網巨頭持續加大AI領域的投入。
近期,字節跳動豆包大模型團隊官宣開源一項針對MoE(混合專家模型)架構的關鍵優化技術,可將大模型訓練效率提升1.7倍,成本節省40%。
據悉,該技術叫COMET,已實際應用于字節的萬卡集群訓練,累計幫助節省了數百萬 GPU 小時訓練算力。
阿里巴巴近日宣布推出AI旗艦應用——新夸克,將“深度思考”能力融入AI搜索。據介紹,用戶在“AI超級框”中輸入指令后,夸克智能中樞可以自動識別意圖,規劃梳理后調動各種不同模型和智能體(Agent)模塊,幫助用戶完成任務。
百度日前連發兩款免費新模型,分別是文心大模型4.5和文心大模型X1。據百度相關負責人介紹,文心大模型4.5在多模態理解能力方面顯著提升。文心大模型X1為深度思考模型,在性能上對標DeepSeek-R1,具備“長思維鏈”,擅長中文知識問答、文學創作、邏輯推理等,而且大幅降低推理成本。
值得關注的是,國產大模型開源步伐持續加速。阿里巴巴在基礎模型和原生應用方面持續發力,近期相繼發布了Qwen2.5-VL、Qwen2.5-Max、通義萬相2.1、千問QWQ-32B等性能領先的開源模型。百度方面則表示,將在6月30日正式將文心大模型開源,并在今年下半年發布文心大模型5.0。
業內分析認為,在技術創新與商業應用的雙輪驅動下,AI有望在互聯網等數字原生領域率先形成規模化落地。
華富人工智能ETF基金經理郜哲表示,結合騰訊財報和近期互聯網巨頭競逐AI的情況來看,我國AIGC應用或已進入加速期。隨著AI在各行業深入滲透,有望誕生更多AI創新模式與高質量產品,進一步推動人工智能產業鏈向更加現實、業績可落地的方向發展。
(來源:中國基金報)
上新!騰訊混元推出深度思考模型T1正式版
3月初,騰訊發布了,有網友問:
安排——
其實,騰訊在2月就已經通過騰訊元寶開放了T1-preview模型。今天,騰訊推出自研深度思考模型混元T1正式版,并在騰訊混元和騰訊云官網開放體驗,即將在騰訊元寶灰度上線。
效果如何?先直接看測試表現:
在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識及競賽級數學、邏輯推理的公開基準測試中,混元T1正式版的成績達到業界領先水平。
注:表格中,其它模型的評測指標來自官方評測結果,官方評測結果中沒有的部分來自混元內部評測平臺結果
混元T1正式版基于混元Turbo S打造,繼承「秒回、吐字快」的優秀基因,還擅長處理超長文本。同時,相較于T1-preview版本的「初出江湖」,混元T1正式版的推理能力更上一層樓——
得益于大規模強化學習,以及數學、邏輯、科學、代碼這些理科專項訓練,混元T1正式版在解決復雜問題時,如同學霸一樣頭腦清晰、思維縝密。
目前,混元T1正式版已在騰訊「上崗」(騰訊混元和騰訊云官網皆可申請體驗),云上API輸入價格為1元/百萬tokens ,輸出價格為4元/百萬tokens 。
//沿用Turbo S創新架構,計算成本大幅降低
以前的大模型,在處理長文本推理時,總是「算力吃緊」,計算復雜度高、內存占用大,導致訓練和推理成本一路飆升。
混元T1正式版沿用了Turbo S的創新架構,全球首創將Hybrid-Mamba-Transformer融合模式無損應用到超大規模推理模型中,讓大模型在處理復雜任務時不再氣喘吁吁,而是又快又省,輕松跑完全程,從而讓企業和開發者以更低的投入即可實現高效的AI部署。
//長文本信息捕捉,文風簡潔、幻覺低
過去,AI在處理長文本時,總像個「馬虎的學生」,前面交代過的任務,后面轉頭就忘了;甚至還經常自己「腦補」一些不存在的情節,產生令人頭疼的「幻覺」。
騰訊混元T1正式版通過架構優化,專門強化了長文本捕捉和邏輯推理能力,就像換了個精明干練的助手,不僅記憶力強、邏輯嚴謹,還能用簡潔的語言精準回應,不再東拉西扯、憑空想象。
現在,不論是寫長篇論文、分析技術文檔,還是處理復雜推理任務,混元T1正式版都能保持內容邏輯清晰、文字干凈利落,同時幻覺率極低,真正做到說人話、辦實事。
//長序列專項優化,解碼速度提升2倍
過去,大模型的「深度思考」讓很多用戶又愛又恨,特別是長文本生成時,AI 可能「想半天」才輸出,甚至在關鍵時刻卡頓,影響使用體驗。
混元T1正式版針對長序列處理進行了專項優化,采用更高效的計算方式——簡單來說,如同為AI配備一個「索引目錄」,不用遍歷文本信息,而是快速精準定位,更高效地提取記憶和上下文信息。
通過這樣的方式,騰訊混元T1正式版在相近的激活參數量下,大幅降低了資源消耗,讓解碼速度直接提升2倍,實現了首字幾乎秒出、吐字速度高達60-80 token/s。
直觀對比下——
目前,混元T1正式版已在騰訊云和騰訊混元官網上線,企業客戶和開發者可通過:
騰訊混元T1需求登記表單登記申請API調用 ;
騰訊混元官網,直接上手體驗;
從 Turbo S 到T1-Preview,再到T1 正式版,騰訊混元大模型正在快速進化,并已廣泛應用于騰訊元寶、ima、騰訊文檔、微信讀書、搜狗輸入法、QQ 瀏覽器等業務場景,讓 AI 真正融入日常工作和創作。
現在,混元 T1正式版已經準備就緒,即刻體驗試用吧!
(內容來源:騰訊云)
來源:深圳夢(微信號ID:SZeverything)綜合
我們的使命是:星辰大海,只與夢想者同行!
擁有深圳夢,請關注(微信號ID:SZeverything)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.