OpenAI推出的滿血O3“跑分”(Benchmark)貌似又被獨立測試揭穿是刷榜了,而奇怪的測試基準數據可能就是o3降智和幻覺倍增的原因?
你可能要問了,一個數學基準測試,與降智和幻覺有什么關系?
事情要從去年12月說起。OpenAI隆重推出O3模型時,公布了一個當時看來非常驚人的成績:在專門針對數學問題的挑戰性基準測試 FrontierMath 上,O3的得分超過了25%!
這個成績有多厲害?要知道,當時的頂尖模型在這個榜單上也只能勉強達到約2%。OpenAI O3的這個數字,基本上是斷崖式領先
真實成績只有10%...?
然而,Epoch AI ( FrontierMath測試基準公司)這兩天發布了他們對滿血版O3的獨立測試結果。
這一測不要緊,結果卻讓人大跌眼鏡:Epoch發現,滿血O3在同一基準測試上的得分竟然只有約 10%!這個分數,雖然相對其他模型依然有優勢,但和OpenAI最初那個25%+的“王牌”表現相比,差距可不是一點半點。Epoch直言,這個分數遠低于OpenAI最初公布的最高成績,測試成績放在o3mini high和o4 mini當中看起來很奇怪,滿血的o3竟然不如早先發布的o3 mini high
為什么會有這么大的差距?原因找到了
根據Epoch和相關方的說法,主要有幾點:
測試環境與方法不同:Epoch 提到,OpenAI最初公布的那個高分,可能是在更強大的內部計算環境、或使用了更復雜的測試時間計算資源(比如多輪思考、內部推理鏈等)下得出的。這就像運動員平時訓練時有教練指導、使用輔助器材,和正式比賽時的表現可能不一樣
測試數據集不同:FrontierMath 基準測試本身也在更新。OpenAI最初可能使用了包含180道問題的舊版數據集進行測試,而Epoch測試的是包含290道問題的新版數據集。題目難度和數量變了,分數自然可能不一樣
模型版本不同:這是最關鍵的一點!據ARC Prize基金會等機構透露(他們也測試過O3的預發布版本),OpenAI 公開發布給用戶使用的 O3 模型,特別是針對聊天和產品應用進行過優化的版本,與OpenAI最初用于跑分的那個性能更強的預發布版本是“不同的模型”。簡單來說,公開版的計算層級(可以理解為模型的“大小”或“算力”)更小。通常來說,計算層級更大的模型能獲得更好的跑分成績
定位不同:OpenAI技術人員Wenda Zhou也在一次直播中解釋說,公開發布的O3是針對成本效率和通用性進行了優化,以便更好地服務于實際應用。因此,它的表現可能與純粹追求最高跑分、不計成本的演示版本存在“基準測試差異”。
看起來這個所謂的滿血版的o3也是一個優化的版本,一切都可以說通了,本來滿血o3是要被整合到GPT5里邊的,但是由于deepseek的沖擊,還有成本等原因,最終奧特曼還是改變了注意,優化版o3還是單獨推出了,有可能更好的模型被雪藏了,個人揣測這可能就是o3降智和幻覺增加的原因
如果您有不同意見,你是對的
?星標AI寒武紀,好內容不錯過?
用你的贊和在看告訴我~
求贊
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.