DeepSeek的出現,不僅為AI的發展提供了更多技術路徑的選擇,也為行業應用的多樣化奠定了基礎,使人工智能走出了“規模至上”,擺脫了過去單一路徑的局限,進而拓展了邁向更廣闊空間的可能性。這一變革的意義,恰好可以從杰文斯悖論(Jevons Paradox)的視角加以審視。
本文作者系盤古智庫學術委員、工銀國際首席經濟學家、董事總經理、研究部主管程實,工銀國際經濟學家徐婕,文章來源于“第一財經”。
本文大約3000字,讀完約7分鐘。
DeepSeek的出現,不僅為AI的發展提供了更多技術路徑的選擇,也為行業應用的多樣化奠定了基礎,使人工智能走出了“規模至上”,擺脫了過去單一路徑的局限,進而拓展了邁向更廣闊空間的可能性。這一變革的意義,恰好可以從杰文斯悖論(Jevons Paradox)的視角加以審視。
杰文斯悖論通常用于描述技術進步提升資源利用效率后,資源消耗量非但未減少,反而進一步增長的現象,其核心邏輯在于需求的價格彈性。在AI訓練、科學計算等高彈性場景,算力需求的指數級增長似乎符合這一邏輯。然而,DeepSeek的發展表明,算力市場的增長并非無約束擴張,而是受到多重因素的影響。市場分化、數據獲取限制、技術瓶頸以及邊際收益遞減,使得算力市場難以完全復制工業時代煤炭消耗模式。尤其是在AI應用從“超大規模訓練”向“高效推理”演進的過程中,單純依賴算力擴張已難以滿足現實需求。
正因如此,DeepSeek等創新路徑的出現,使得多模態、多場景、多終端的互動成為可能,推動算力能力進一步從“云端推理”向“端側智能”拓展。未來的算力增長,或許不再是簡單的“算力堆砌”,而是依賴底層模型與上層應用的協同創新,以更高效、更智能的方式實現AI技術的躍遷。
算力增長的內在邏輯:模型邊界的階梯式突破與應用場景的不斷演進
在人工智能發展的浪潮中,底層模型的邊界正逐漸顯現。盡管近幾年大模型的規模持續擴張,無論是文本生成、圖像理解,還是跨模態能力的拓展,底層模型的發展始終存在物理和理論上的邊界。這些邊界不僅緣于算力和數據的限制,更涉及認知能力、泛化性、安全性等多方面的挑戰。換句話說,算力的提升固然為底層模型的進化提供了可能,但并不意味著模型的邊界可以無限擴張,而是受到諸多因素的制約。
算力的增長并非簡單的線性積累,而是階梯式突破邊界,并推動其在現實場景中的應用落地。每一階段算力的提升,都會伴隨著底層模型能力的躍升,同時也意味著上一階段模型的邊界被突破,催生出更廣泛的應用場景。例如,在早期的AI時代,算力的限制使得神經網絡難以訓練深層次的特征,直到GPU和TPU等專用芯片的發展,使得深度學習模型在計算機視覺、自然語言處理等領域展現出前所未有的能力,在GPT-4及之后的版本中,算力的提升不僅提升了語言理解和生成能力,還逐步拓展了AI的推理能力、多模態能力和交互能力。大規模算力的投入使得長文本生成、邏輯推理、多輪對話成為可能。然而,算力需求的持續增長,并不能僅依賴于底層模型參數規模的無序擴張,而需要建立在應用場景的開發。換句話說,算力的增長不能僅依賴“更大模型”,而需要明確的應用支撐,尤其是在應用場景的拓展與交互方式的創新上。
一方面,應用場景演進的軟性需求在于同質性場景的挖掘。這些場景不僅有較高的算力需求,同時也能夠大規模復用已有的模型能力,從而提高算力投資的回報率。例如,AI在企業級應用中的普及,使得從客服自動化到市場分析,AI的通用能力可以被反復利用,從而促進更廣泛的算力需求增長。另一方面,應用場景演進的硬性輔助在于交互能力的升級。前期,AI應用以文本交互、屏幕顯示為主,再到語音助手的出現,現已向智能穿戴設備(如智能眼鏡)等更加沉浸式的交互方式演進。而這些新型交互方式將大幅提升算力需求,因為它們涉及更復雜的實時計算、低延遲推理、多模態融合等技術要求。
杰文斯悖論的前提假設:算力需求的價格彈性
杰文斯悖論的核心在于,技術進步所帶來的資源利用效率提升并不會減少資源消耗,反而會導致資源總消耗量的上升。這一現象的邏輯基礎在于需求對價格的高度彈性——即當某種資源的獲取成本下降時,市場需求的增長幅度足以抵消技術進步帶來的節約效應。例如,在19世紀的英國,蒸汽機技術的革新大幅提高了煤炭的燃燒效率,然而,這并未減少煤炭的使用量,反而因工業規模擴大,推動了煤炭需求的急劇上升。類似的現象在能源、交通、制造等多個領域屢見不鮮,成為經濟學中一個廣為討論的悖論。
當這一理論被應用到算力領域時,形成了一個類似的假設——隨著芯片制造工藝的提升、云計算的普及以及并行計算架構的優化,算力的成本正在持續下降,理論上,這一趨勢將刺激更大規模的算力消耗,進而形成“越便宜,越擴張”的循環。例如,近年來GPU和專用AI加速器(如TPU、Trainium等)的計算能力不斷提升,單位算力成本大幅降低,而市場上對AI訓練、大規模模擬計算、高性能計算等需求仍在加速增長,表面上看,這一現象似乎印證了杰文斯悖論的存在。
然而,這一悖論能否成立的關鍵在于,算力需求是否具有足夠的價格彈性。換言之,如果單位算力的價格下降,需求必須以足夠快的速度增長,才能抵消單位效率提升所帶來的節約效應。而現實情況并非如此簡單。算力需求的增長不僅受價格驅動,還受到數據可得性、算法復雜度、行業適配度等多重因素的制約。例如,GPT-4的訓練成本相較于前代GPT-3有所下降,但并未因此導致大規模企業和研究機構全面復制同類模型。核心原因在于,AI訓練的隱性成本并不只是算力成本,還包括數據收集、算法優化、工程調優、模型部署等多個環節,這些環節的成本仍然構成企業使用AI技術的剛性約束。因此,僅僅依賴算力成本的下降,并不足以推動所有行業全面進入“算力消費爆炸”的階段。
算力市場的現實困境:需求彈性的非對稱性
從實際市場表現來看,算力需求的價格彈性呈現出顯著的非對稱性,不同市場主體的反應存在較大分化。一方面,頭部科技公司因業務剛需,持續擴大算力投入,例如OpenAI等公司都在推動AI模型參數規模的快速增長。這些科技巨頭在人工智能競賽中不遺余力地構建大規模數據中心和專有計算集群,以支持更強大的模型訓練和推理任務。近年來,大型預訓練模型的規模擴張極為迅速,從GPT-2(15億參數)發展到GPT-3(1750億參數),再到GPT-4上萬億參數,這一趨勢推動了全球AI算力需求的飆升,然而,并非所有市場主體都呈現這一現象。
首先,模型參數數量并不能無約束地擴張,同時DeepSeek的發展也表明,在提升模型性能方面,參數數量的增加并非唯一途徑。通過引入創新的架構和訓練方法,DeepSeek實現了高效的計算和卓越的性能。其次,對于普通企業和個人開發者而言,算力需求的增長受到諸多限制。
盡管云計算服務的價格不斷下降,但許多企業的AI應用比例仍未大幅提升。主要原因在于,除了算力成本外,AI應用還受到以下現實因素的制約。一是數據治理的范式困境。AI模型的訓練依賴于大量高質量數據,而數據獲取的成本和合規風險在許多行業都極為嚴峻。例如,醫療、金融等領域的數據合規要求嚴格,導致許多企業難以利用公共算力資源進行AI訓練。二是技術躍遷的生態壁壘。并非所有企業都具備深度學習的專業能力,許多中小企業難以建立高效的AI開發流程,即便算力成本下降,也無法有效利用這些資源。三是創新周期的效益拐點。AI模型的參數規模達到一定閾值后,算力投入的邊際收益遞減。例如,GPT-4相比GPT-3的算力需求增長了近100倍,但在許多應用場景中的用戶體驗提升并未達到相同比例的增長。這意味著,在超大規模算力場景下,價格彈性可能已逼近臨界點。因此,在未來的算力革命中,技術創新的重心可能不再是單純擴展計算能力,而是提升算力利用效率。需求彈性也將從“野蠻擴張”步入“理性收斂”的新階段,算力市場的發展邏輯或將發生深刻變革。
文章來源于“第一財經”
責任編輯:劉菁波
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.