騰訊元寶打定了抱緊DeepSeek大腿不松手的主意。
就在3月26日,元寶迎來重大更新,再次趕在第一時間接入DeepSeek V3的“小版本更新”版本V3-3024,與此同時,元寶還同步接入了自研的混元T1正式版。
對DeepSeek的緊緊跟進,是因為元寶正在切切實實享受到這一策略帶來的好處。在今年年初的民企座談會上,馬化騰和梁文鋒做了回“同桌”,并排而坐。在那4天之前,2月13日,騰訊元寶宣布接入DeepSeek。
沒有人想到,騰訊此舉讓元寶像坐上火箭,扶搖直上三千里,一度登上蘋果應(yīng)用商店中國區(qū)免費榜榜首。前不久的財報會上,騰訊總裁劉熾平透露元寶的日活激增超過20倍。
自此之后,“自研+開源”的融合模式成為騰訊最新的AI策略,即通過與自身豐富產(chǎn)品生態(tài)的融合,也通過不同模型之間的協(xié)同互補,達成用戶側(cè)的體驗提升。
另一方面,從這次V3更新和混元T1正式版的上線,能看出來另一種“融合”的趨勢,那就是推理模型和通用模型的互相靠近。
未來究竟是屬于通用模型的,還是推理模型的,亦或是其他黑馬?這也許根本就是一個偽命題。
當你有輪子的時候,不必兩條腿走路。
DeepSeek將在掀起全球“推理熱”之后,再度掀起“融合”熱嗎?
01
勤奮的元寶
不得不說,元寶跟得太緊了。
DeepSeek在3月24日晚上突然上新V3的“小版本更新“,也就是V3-0324。
到了3月26日,元寶就已經(jīng)接入了V3-0324,并且還同步接入了騰訊自研的混元T1。一個非推理模型,一個推理模型;一個外部模型,一個自研模型。元寶算是把組合玩明白了。
V3這次的更新說是“小版本更新”,悄無聲息地突然在開源平臺Hugging Face上線,其實是來了個大的,升級幅度并不小。朋友說“隨便吃點”,你以為是速凍餃子,其實端上來個毛血旺。
根據(jù)DeepSeek的官方技術(shù)報告,V3-0324在數(shù)學、百科知識、代碼任務(wù)上表現(xiàn)都優(yōu)于前代,尤其是在數(shù)學和代碼類評測集上得分超過OpenAI的GPT-4.5和Anthropic的Claude-Sonnet-3.7。
最有意思的是,V3-0324雖然不是推理模型,但是有R1的味道。官方技術(shù)報告里點出的四大亮點“推理能力”“前端開發(fā)能力”“中文協(xié)作能力”“中文搜索”都落在了R1的優(yōu)勢范圍內(nèi)。
在實際測試中,V3-0324也比舊版本更傾向于輸出更多文本。比如測試一個簡單的指令“寫一篇你自己的散文”,V3給出的有科技浪漫感的文本可以說是“很R1”了。
DeepSeek也在報告中透露,V3-0324和之前的V3使用的base模型相通,改進了后訓練方法,并借鑒了R1推理模型訓練過程中的強化學習技術(shù)。
從前推理模型和非推理模型在使用時,用戶很明顯的一個取舍是,非推理模型響應(yīng)快,但精細和準確度上弱一些,推理模型則往往“思考”得更深入,還會給出詳細的思維鏈,返回的結(jié)果更精確詳細,但響應(yīng)速度上比較慢。
但DeepSeek似乎正在往“中間”走。
騰訊新推出的混元T1模型也有這樣的特點。元寶在26日同步接入了DeepSeek的V3-0324和自研的混元T1。
T1是推理模型,但是響應(yīng)速度更快。
這是因為在架構(gòu)上,混元T1就舍棄了全Transformer,而是沿用混元Turbo S的模型架構(gòu),采用Hybrid-Mamba-Transformer。
Transformer架構(gòu)擅長捕捉復(fù)雜上下文,而Mamba特長在高效處理長序列。兩相結(jié)合,模型在快與慢之間尋找平衡。
我們用經(jīng)典的“雞兔同籠”題分別向DeepSeek R1和混元T1提問,在關(guān)閉“聯(lián)網(wǎng)搜索”的情況下,二者最終給出的答案無誤,R1思考用時28秒,T1僅用14秒。
在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識、競賽級數(shù)學,以及邏輯推理公開基準測試中,混元T1的得分比肩DeepSeek R1和OpenAI的o1(均為推理模型)。
值得注意的是,混元T1每百萬tokens 輸出價格4元,這是DeepSeek R1標準時段輸出價格的四分之一,與其優(yōu)惠時段價格持平。
這樣看來,騰訊不僅是在元寶接入模型的速度上看跟得緊,從模型的路線和價格上也是。
比亞迪對“高階智駕”進行了重新定義。
02
追隨策略的勝利
來得早不如來得巧妙,短短一個月時間,元寶支棱起來了。
3月19日,騰訊總裁劉熾平在2024年年報電話會上提到了元寶的表現(xiàn),2月到3月日活激增超過20倍,成為中國第三高的AI原生移動應(yīng)用程序。
騰訊元寶去年5月30日發(fā)布,初期定位是集成騰訊混元大模型的智能助手,但是反響平平。1月DeepSeek的R1模型全球大火,次月騰訊就宣布將DeepSeek-R1滿血版接入元寶,由此元寶也迎來了轉(zhuǎn)折點。
在那之后,元寶高強度“日更”,35天里版本更新30次。用戶也不斷涌入,元寶一度登頂蘋果中國區(qū)應(yīng)用商店免費榜,超越DeepSeek。
不僅是元寶,騰訊在AI領(lǐng)域的發(fā)力突然按下加速鍵。其旗下核心應(yīng)用如微信、QQ瀏覽器、QQ音樂、ima、騰訊文檔等,都接入了DeepSeek模型,并同步支持自研混元大模型。
“自研+開源”的多模型策略還將繼續(xù)。騰訊方面表示,騰訊元寶將繼續(xù)堅持“雙?!?。投入繼續(xù)加大,近半個月就投入近3個億。在前不久的財報會上,劉熾平透露:“我們計劃在2025年進一步加大資本支出,預(yù)計資本支出將占收入的十幾個百分點。”
這又是一次“追隨策略”的勝利(至少是階段性的勝利)。
緊盯市場走向,快速跟進與創(chuàng)新結(jié)合,實現(xiàn)后發(fā)優(yōu)勢,這是騰訊擅長的。從騰訊“起家”的QICQ,到如今的元寶都是如此。
騰訊曾經(jīng)飽受“抄襲”“模仿”的質(zhì)疑。馬化騰早在2010年就稱“模仿也是一種嘗新”,在2018年面對記者提問時,他的回答更加完整:“有時候為了創(chuàng)新而創(chuàng)新,反而會讓創(chuàng)新動作變形。很多創(chuàng)新往往是自下而上的,總是在不經(jīng)意的邊緣地方出現(xiàn)。如果企業(yè)完全自上而下,給創(chuàng)新定好方向,這樣往往沒有活力,很僵化?!睆呐cDeepSeek合作,與自研模型并行,并與內(nèi)部應(yīng)用融合來看,創(chuàng)新可以是自下而上的,也可以是從外向內(nèi)的。
在AI的牌桌上,巨頭要考慮的不僅僅是如何造出更好的模型,而是怎樣發(fā)揮自身積累的產(chǎn)品優(yōu)勢,以及怎樣讓對AI的投入和自身戰(zhàn)略相結(jié)合。
在接入DeepSeek之前,騰訊在整個2024年也已經(jīng)廣泛部署AI,并且從中“嘗到了甜頭”。騰訊內(nèi)部已經(jīng)有超過700個業(yè)務(wù)場景接入混元大模型與加入開源大模型。全年資本開支767億元,同比增長221%,收入同比增長11%。其中騰訊會議收入增長40%,AI功能月活增長到1500萬。而企業(yè)微信收入同比翻倍。
與其說騰訊突然“激進”了,不如說輪子落進了合適的車轍,加速是勢在必行。
03
融合的風
馬化騰在產(chǎn)品層面緊跟梁文鋒,整個大模型行業(yè)也在跟著梁文鋒而動。
毋庸置疑的是,DeepSeek R1從今年初開始掀起了全球“推理模型熱”。AI模型求“大”不再是公認唯一可行的路徑,再經(jīng)過DeepSeek對工具的不斷開源,更讓人們有意識追求“效率”的魅力。
OpenAI o3 mini、谷歌的Gemini Flash Thinking;國內(nèi)月之暗面的Kimi 1.5,科大訊飛 X1,阿里Qwen 2.5-Math-PRM……
這次DeepSeek對通用模型的更新,則顯示出了“融合”的趨勢。V3-3024融入了R1的強化學習推理優(yōu)化方法,同時保留了通用模型的高效執(zhí)行特性,是突破通用模型“平庸困境”的一種嘗試。
騰訊的混元T1正式版也有異曲同工之妙,從架構(gòu)層面融合,使得其作為推理模型反應(yīng)速度顯著提升,與此同時能更好地處理上下文。DeepSeek嘗試讓通用模型向推理模型的方向走了走,騰訊則讓推理模型向通用模型的方向走了走,兩端都在向中間靠攏。
模型生產(chǎn)商兼顧幾種路徑,導致產(chǎn)品線冗雜的問題已經(jīng)有所顯現(xiàn)。
此前OpenAI CEO山姆·奧特曼(Sam Altman)在談及GPT-5的計劃時就曾經(jīng)透露,模型和產(chǎn)品功能太復(fù)雜,未來OpenAI將將其統(tǒng)一,o3模型不再單獨發(fā)布,GPT-4.5也將是OpenAI最后一個非鏈式思維模型。
Anthropic搶先OpenAI一步,試圖給出解決方法。在2月底發(fā)布了“全球首個混合模型”Claude 3.7 Sonnet。即在單一架構(gòu)上整合實時應(yīng)答(Fast Thinking)和深度思考(Slow Thinking)。不讓用戶去在不同的模型間進行切換,而是模型自行判斷當前問題是否需要深度思考。
也許接下來的問題是融合的方式選擇:是通過AI自動調(diào)配來實現(xiàn)“融合”(實際上是將不同模型藏在后臺),還是在模型層面做融合(就像V3-3024和騰訊混元T1正式版的做法)。
所謂的“兩條腿走路”,是并行開發(fā)分離的通用模型或者推理模型。那么如今的融合趨勢,就是將兩條腿變成了一個輪子,邁左腳還是右腳,別去操心了。
歡迎在評論區(qū)留言~
如需開白請加小編微信:dongfangmark
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.