騰訊元寶打定了抱緊DeepSeek大腿不松手的主意。
就在3月26日,元寶迎來重大更新,再次趕在第一時間接入DeepSeek V3的“小版本更新”版本V3-3024,與此同時,元寶還同步接入了自研的混元T1正式版。
對DeepSeek的緊緊跟進,是因為元寶正在切切實實享受到這一策略帶來的好處。在今年年初的民企座談會上,馬化騰和梁文鋒做了回“同桌”,并排而坐。在那4天之前,2月13日,騰訊元寶宣布接入DeepSeek。
沒有人想到,騰訊此舉讓元寶像坐上火箭,扶搖直上三千里,一度登上蘋果應用商店中國區免費榜榜首。前不久的財報會上,騰訊總裁劉熾平透露元寶的日活激增超過20倍。
自此之后,“自研+開源”的融合模式成為騰訊最新的AI策略,即通過與自身豐富產品生態的融合,也通過不同模型之間的協同互補,達成用戶側的體驗提升。
另一方面,從這次V3更新和混元T1正式版的上線,能看出來另一種“融合”的趨勢,那就是推理模型和通用模型的互相靠近。
未來究竟是屬于通用模型的,還是推理模型的,亦或是其他黑馬?這也許根本就是一個偽命題。
當你有輪子的時候,不必兩條腿走路。
DeepSeek將在掀起全球“推理熱”之后,再度掀起“融合”熱嗎?
01
勤奮的元寶
不得不說,元寶跟得太緊了。
DeepSeek在3月24日晚上突然上新V3的“小版本更新“,也就是V3-0324。
到了3月26日,元寶就已經接入了V3-0324,并且還同步接入了騰訊自研的混元T1。一個非推理模型,一個推理模型;一個外部模型,一個自研模型。元寶算是把組合玩明白了。
V3這次的更新說是“小版本更新”,悄無聲息地突然在開源平臺Hugging Face上線,其實是來了個大的,升級幅度并不小。朋友說“隨便吃點”,你以為是速凍餃子,其實端上來個毛血旺。
根據DeepSeek的官方技術報告,V3-0324在數學、百科知識、代碼任務上表現都優于前代,尤其是在數學和代碼類評測集上得分超過OpenAI的GPT-4.5和Anthropic的Claude-Sonnet-3.7。
最有意思的是,V3-0324雖然不是推理模型,但是有R1的味道。官方技術報告里點出的四大亮點“推理能力”“前端開發能力”“中文協作能力”“中文搜索”都落在了R1的優勢范圍內。
在實際測試中,V3-0324也比舊版本更傾向于輸出更多文本。比如測試一個簡單的指令“寫一篇你自己的散文”,V3給出的有科技浪漫感的文本可以說是“很R1”了。
DeepSeek也在報告中透露,V3-0324和之前的V3使用的base模型相通,改進了后訓練方法,并借鑒了R1推理模型訓練過程中的強化學習技術。
從前推理模型和非推理模型在使用時,用戶很明顯的一個取舍是,非推理模型響應快,但精細和準確度上弱一些,推理模型則往往“思考”得更深入,還會給出詳細的思維鏈,返回的結果更精確詳細,但響應速度上比較慢。
但DeepSeek似乎正在往“中間”走。
騰訊新推出的混元T1模型也有這樣的特點。元寶在26日同步接入了DeepSeek的V3-0324和自研的混元T1。
T1是推理模型,但是響應速度更快。
這是因為在架構上,混元T1就舍棄了全Transformer,而是沿用混元Turbo S的模型架構,采用Hybrid-Mamba-Transformer。
Transformer架構擅長捕捉復雜上下文,而Mamba特長在高效處理長序列。兩相結合,模型在快與慢之間尋找平衡。
我們用經典的“雞兔同籠”題分別向DeepSeek R1和混元T1提問,在關閉“聯網搜索”的情況下,二者最終給出的答案無誤,R1思考用時28秒,T1僅用14秒。
在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識、競賽級數學,以及邏輯推理公開基準測試中,混元T1的得分比肩DeepSeek R1和OpenAI的o1(均為推理模型)。
值得注意的是,混元T1每百萬tokens 輸出價格4元,這是DeepSeek R1標準時段輸出價格的四分之一,與其優惠時段價格持平。
這樣看來,騰訊不僅是在元寶接入模型的速度上看跟得緊,從模型的路線和價格上也是。
比亞迪對“高階智駕”進行了重新定義。
02
追隨策略的勝利
來得早不如來得巧妙,短短一個月時間,元寶支棱起來了。
3月19日,騰訊總裁劉熾平在2024年年報電話會上提到了元寶的表現,2月到3月日活激增超過20倍,成為中國第三高的AI原生移動應用程序。
騰訊元寶去年5月30日發布,初期定位是集成騰訊混元大模型的智能助手,但是反響平平。1月DeepSeek的R1模型全球大火,次月騰訊就宣布將DeepSeek-R1滿血版接入元寶,由此元寶也迎來了轉折點。
在那之后,元寶高強度“日更”,35天里版本更新30次。用戶也不斷涌入,元寶一度登頂蘋果中國區應用商店免費榜,超越DeepSeek。
不僅是元寶,騰訊在AI領域的發力突然按下加速鍵。其旗下核心應用如微信、QQ瀏覽器、QQ音樂、ima、騰訊文檔等,都接入了DeepSeek模型,并同步支持自研混元大模型。
“自研+開源”的多模型策略還將繼續。騰訊方面表示,騰訊元寶將繼續堅持“雙模”。投入繼續加大,近半個月就投入近3個億。在前不久的財報會上,劉熾平透露:“我們計劃在2025年進一步加大資本支出,預計資本支出將占收入的十幾個百分點。”
這又是一次“追隨策略”的勝利(至少是階段性的勝利)。
緊盯市場走向,快速跟進與創新結合,實現后發優勢,這是騰訊擅長的。從騰訊“起家”的QICQ,到如今的元寶都是如此。
騰訊曾經飽受“抄襲”“模仿”的質疑。馬化騰早在2010年就稱“模仿也是一種嘗新”,在2018年面對記者提問時,他的回答更加完整:“有時候為了創新而創新,反而會讓創新動作變形。很多創新往往是自下而上的,總是在不經意的邊緣地方出現。如果企業完全自上而下,給創新定好方向,這樣往往沒有活力,很僵化。”從與DeepSeek合作,與自研模型并行,并與內部應用融合來看,創新可以是自下而上的,也可以是從外向內的。
在AI的牌桌上,巨頭要考慮的不僅僅是如何造出更好的模型,而是怎樣發揮自身積累的產品優勢,以及怎樣讓對AI的投入和自身戰略相結合。
在接入DeepSeek之前,騰訊在整個2024年也已經廣泛部署AI,并且從中“嘗到了甜頭”。騰訊內部已經有超過700個業務場景接入混元大模型與加入開源大模型。全年資本開支767億元,同比增長221%,收入同比增長11%。其中騰訊會議收入增長40%,AI功能月活增長到1500萬。而企業微信收入同比翻倍。
與其說騰訊突然“激進”了,不如說輪子落進了合適的車轍,加速是勢在必行。
03
融合的風
馬化騰在產品層面緊跟梁文鋒,整個大模型行業也在跟著梁文鋒而動。
毋庸置疑的是,DeepSeek R1從今年初開始掀起了全球“推理模型熱”。AI模型求“大”不再是公認唯一可行的路徑,再經過DeepSeek對工具的不斷開源,更讓人們有意識追求“效率”的魅力。
OpenAI o3 mini、谷歌的Gemini Flash Thinking;國內月之暗面的Kimi 1.5,科大訊飛 X1,阿里Qwen 2.5-Math-PRM……
這次DeepSeek對通用模型的更新,則顯示出了“融合”的趨勢。V3-3024融入了R1的強化學習推理優化方法,同時保留了通用模型的高效執行特性,是突破通用模型“平庸困境”的一種嘗試。
騰訊的混元T1正式版也有異曲同工之妙,從架構層面融合,使得其作為推理模型反應速度顯著提升,與此同時能更好地處理上下文。DeepSeek嘗試讓通用模型向推理模型的方向走了走,騰訊則讓推理模型向通用模型的方向走了走,兩端都在向中間靠攏。
模型生產商兼顧幾種路徑,導致產品線冗雜的問題已經有所顯現。
此前OpenAI CEO山姆·奧特曼(Sam Altman)在談及GPT-5的計劃時就曾經透露,模型和產品功能太復雜,未來OpenAI將將其統一,o3模型不再單獨發布,GPT-4.5也將是OpenAI最后一個非鏈式思維模型。
Anthropic搶先OpenAI一步,試圖給出解決方法。在2月底發布了“全球首個混合模型”Claude 3.7 Sonnet。即在單一架構上整合實時應答(Fast Thinking)和深度思考(Slow Thinking)。不讓用戶去在不同的模型間進行切換,而是模型自行判斷當前問題是否需要深度思考。
也許接下來的問題是融合的方式選擇:是通過AI自動調配來實現“融合”(實際上是將不同模型藏在后臺),還是在模型層面做融合(就像V3-3024和騰訊混元T1正式版的做法)。
所謂的“兩條腿走路”,是并行開發分離的通用模型或者推理模型。那么如今的融合趨勢,就是將兩條腿變成了一個輪子,邁左腳還是右腳,別去操心了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.