撰文| 郝 鑫
編輯| 吳先之
昨天,兩個老百度人隔空展開了一場“互懟”。
兩個主人公分別是,現任百度智能云事業群總裁沈抖和火山引擎總裁譚待。公開資料顯示,2008年至2019年期間,譚待曾擔任百度搜索、網盤和基礎架構首席架構師、T11級別技術專家。
這場爭論源于,沈抖在2月12日百度智能云事業群(ACG)全員會上,頗具指向性的發言。沈抖在會上提到:“國內大模型去年‘惡意’的價格戰,導致行業整體的創收相較于國外差了多個數量級”。
火山引擎、阿里云、騰訊云等,去年參與到“大模價格戰”中的廠商紛紛躺槍。但接下來沈抖話鋒一轉,單獨把豆包拎出來作為了典型案例。在談及Deepseek影響時,沈抖直言不諱,認為首當其沖的AI產品就是字節的豆包,理由是其訓練成本和投流成本都很高。
隨即,譚待在朋友圈展開了正面回擊。針對“惡意”一詞他回應稱,“豆包1.5Pro模型的預訓練成本、推理成本均低于DeepSeek V3,更是遠低于國內其他模型,在當前的價格下有非常不錯的毛利”。
之所以能夠實現降價,譚待將其歸功于了“技術進步”,他表示,“國內外的廠商都在依靠技術創新,降低模型價格。我們也只是實現了Gemini 2.0 Flash的價格水平而已,這個價格完全是依賴技術進步做到。”
最后,譚待也不忘給老東家送上了自己的“建議”:“大家應該像DeepSeek一樣聚焦基本功,聚焦創新,不急不躁,少無端猜測,歸因外部。”
截至發稿前,沈抖未對譚待的上述言論,發表任何意見。
爭論分歧
此次爭論的話題主要集中在三個方向:大模型降價、商業化和DeepSeek。
話里話外,沈抖指責火山引擎帶偏了整個行業風氣,讓大模型卷進了價格戰,讓AI產品陷入了投流營銷戰,以此走向了惡性循環。而譚待對其進行了全盤否認,認為降價是火山引擎的技術優勢,將鍋又甩回給百度,暗諷其大模型技術不到家才找理由。
實際上,去年的大模型價格戰,國內幾乎所有云廠商都有參與,這里面當然也包括百度,因此很難把責任歸咎于哪一方。
故事最開始是DeepSeek最先打響了第一槍,火山引擎發起進攻,將大模型的價格打到了“厘時代”。隨后,大規模的降價在行業中爆發,百度更是祭出必殺技,宣布文心大模型兩大主力模型ERNIE Speed、ERNIE Lite全面免費。
DeepSeek大火后,市場部署DeepSeek-R1的需求也隨之爆發,但由于DeepSeek官方服務器不穩定和算力資源有限,無法承接從天而降的流量。于是,機會來到了云廠商這邊,新一輪的價格戰再次打響。
為了搶占了流量和拉新,大廠紛紛宣布接入滿血版的DeepSeek-R1,免費送token的同時,API調用價格還低于DeepSeek官方。
火山引擎向用戶贈送50萬token免費額度,DeepSeek-R1 滿血版半折優惠,每100萬token輸入2元錢,100萬token輸出8元;百度智能云千帆大模型平臺正式上線了DeepSeek-R1與DeepSeek-V3模型,低至DeepSeek官方刊例價3-5折,還可享受限時免費服務。
大模型價格戰雖然有宣傳的意味,但也是技術發展到一定階段的產物,只不過在一個時間節點集中爆發。其中,沈抖提到國內大模型行業創收問題,“不及國外同行量級”是一個客觀的事實,但是不能一概而論,把所有問題都歸結到大模型價格上。
DeepSeek-R1雖然是中國大模型發展的一個拐點,但不能忽略的事實是,截至到目前,國內大模型也只是追平到了去年國外水平,剛達到支持場景和應用落地的水平。從根本上看,正是客觀的模型能力差距才導致了與國外大模型收入差距。在模型能力沒有一騎絕塵的情況下,國內大模型本來就不是一門好生意,屬于賠錢賺吆喝,最后還是要把流量轉化到云服務賺錢。
從這個程度上看,百度云和火山引擎面臨著相同的處境,互相指責其實對于行業沒有任何益處。
如果要說“惡意”,大概體現在豆包排外性的投流上。豆包背靠字節天然獲得了曝光的優勢,但讓“其他AI應用再也投不進去”,無形中抑制了其他創業公司的生長。
開源、普惠勢不可擋
大模型卷“低價”一定是消極的嗎?答案是否定的。開源、普惠、技術平權將是未來的的大趨勢。
DeepSeek這條“鯰魚”已經對以OpenAI為首的閉源大模型體系發起了沖擊,憑借一己之力扭轉了行業對開源的認知。
“大模型開源沒有意義”與“閉源大模型會持續領先”,此類聲音逐漸被淹沒在了各類玩家的行動之中。
2月6日,OpenAI宣布向所有用戶開放ChatGPT搜索功能,無需注冊。2月13日,OpenAI首席執行官Sam Altman發布消息稱,GPT-4.5、GPT-5即將陸續發布,免費版ChatGPT將在標準智能設置下無限制使用GPT-5進行對話。此外,他還特別指出,OpenAI的新路線是:跨越o3、免費訪問、開源“模型規范”。
國內百度也及時更新了方向,進一步擁抱免費和開源。文心一言將于4月1日起,全面免費,所有PC端和APP端用戶均可體驗文心系列最新模型。文心一言上線深度搜索功能,該功能也將于4月1日起免費開放使用。
2月14日,百度又官宣新消息,將在未來幾個月內陸續推出文心大模型4.5系列,并于6月30日起正式開源。
從技術發展曲線來看,大模型推理和AI成本還將持續下降。以GPT為例,2023年GPT-4的token成本為36美元/百萬token,到了2024年中期GPT-4o成本下降為了4美元/百萬token,在此期間每個token價格下降了約150倍,摩爾定律以每18個月性能翻倍的速度改變了世界。
有人將使用特定水平AI成本每12個月下降十倍稱之為“奧特曼定律”。Sam Altman認為,正是因為技術曲線發展到了一個新的節點,所以各方競爭之下大模型效率正在加速提升,這可能也是AI大模型性價比大戰火熱的原因。
這種競爭還在持續,就在DeepSeek攪動行業不久,其價格優勢就很快被谷歌Gemini-2.0-Flash/Lite所超越。
這對整個行業發展來說釋放了積極的信號,意味著可以用較低的成本和較高的效率來搭建業務、應用,這將為Agent的爆發打下良好的基礎。
“DeepSeek”效應
對大廠而言,防御比創新更重要。王小川此前說過一句話:“大創新靠小廠,小創新靠大廠”。
難得的是此次DeepSeek引發了集體的反思。
據智能涌現報道,有關DeepSeek對百度的影響,沈抖回應員工,每當科技的發展走到瓶頸期,總會有一個引領性的組織制造出拐點,而DeepSeek就是這個拐點。他認為,在DeepSeek引發這一波虹吸效應之后,開發生態會進一步繁榮。
面對DeepSeek的突然崛起,除了百度一改閉源的堅持,也在激蕩其他廠商。
據晚點報道,2025年字節的全員會上,字節CEO梁汝波重提 “務實的浪漫”。反思在DeepSeek R1創新點之一的長鏈思考模式不是業界首創,在9月OpenAI發布長鏈思考模式后,字節在意識到技術重大變化時,沒有及時跟進,反而錯失了時機。
短期來看,DeepSeek爆火所產生的流量,受益者還是云大廠。得益于穩定的基礎設施,在阿里云、百度云、火山引擎等運行的DeepSeek性能還是要略勝一籌。隨著帶來的是token量的消耗和新用戶的增長。
但回歸到商業化的問題,云廠商刷足了存在感,憑借降價、免費的政策能夠轉化的收入卻少之又少。MaaS模式不存在網絡外部效應,反之,用戶涌進量越大,機器、服務和人力投入的成本消耗就越大。
更為關鍵的問題是,更強性能的模型誕生已經不算什么新鮮事兒,繼續沿著模型探索把推理能力與業務場景結合才是下一步的方向。
有知情人士告訴光子星球,春節期間來咨詢和測試DeepSeek-R1的人不在少數,但其客戶還在謹慎觀望狀態。畢竟“狼來了”的故事,他們已經聽過很多回,手里各個廠商的token已經攢了一大堆,還是沒能解決實際問題。
此外,DeepSeek也正在伸向云廠商大模型2B業務。
有媒體不完全統計,至少有160多家企業集體接入了DeepSeek,這個數字還在每天不斷上升。另外,不少央國企已經開始發布采購訂單,點名要本地部署DeepSeek-R1,采購所適配模型的硬件和算力。
“給我來一套DeepSeek”,這是最近To B銷售最常聽到的一句話。
微信號|TMTweb
公眾號|光子星球
別忘了掃碼關注我們!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.