最近 OpenAI 的活確實有點多。在 3 月底推出 GPT-4o 原生圖像生成再度火遍全球后,北京時間 4 月 15 日凌晨,OpenAI 又推出了全新 GPT-4.1 系列模型,替代舊款的 GPT-4 模型。
而就在今天(4 月 17 日)凌晨,OpenAI 如約繼續推出了兩款全新的 o 系列推理模型——o3、o4-mini,替代此前的 o1 和 o3-mini。更重要的是,o3、o4-mini 不僅擁有了更強大的推理能力,支持將圖像直接納入「思考過程」,還是首次能夠獨立使用全部 ChatGPT 工具的推理模型,被官方稱為:
「我們(OpenAI)迄今為止發布的最智能的模型,代表了 ChatGPT 能力的一次飛躍。」
飛不飛躍我們先按下不談,但有一點實在讓人在意。OpenAI CEO 山姆·奧爾特曼(Sam Altman)今年 2 月就在 X 平臺公開披露內部的模型路線圖,指出 GPT-4.5(Orion)將是「OpenAI 最后一個非推理(思維鏈)模型」,還說之后的 GPT-5 將整合 GPT 系列和 o 系列模型:
「不再將 o3 作為獨立模型推出。」
圖/ X
但現在來看,山姆·奧爾特曼當時的承諾似乎一個都沒有兌現,OpenAI 不僅發布了新的 GPT-4.1 系列非推理模型,還獨立推出了 o3 推理模型。那還有一直活在傳聞的 GPT-5,我們真的能在今年夏天看到嗎?
OpenAI 又發一波模型,o3是最特別的一個
GPT-4.1 系列、o3、o4-mini 發布之前,關于 OpenAI 太多模型的吐槽其實就已經甚囂塵上,不僅是普通 ChatGPT 用戶,也包括很多開發者,也認為 OpenAI 的模型陣容讓人「選擇困難」。
好在,雖然過去兩天 OpenAI 又連發了好幾個新模型,但至少也同步砍掉了一些「舊模型」。在 GPT-4.1 正式推出后,OpenAI 就預告將于 4 月 30 日在 ChatGPT 全面下線 GPT-4 模型,同時還將在 API 中(面向開發者)棄用 GPT-4.5 預覽版。
作為通用基座模型,GPT-4.1 實際分為了旗艦版、mini 版、nano 版,支持高達百萬級 tokens 上下文,在性能、成本和速度上全面優于目前最主力的 GPT-4o 系列模型,但目前僅面向開發者上線 API。
但如果說 GPT-4.1 代表了 OpenAI 的現在,o3 和 o4-mini,可能就代表了 OpenAI 的未來。作為 OpenAI 探索推理模型技術路線的最新成果,o3 和 o4-mini 率先在推理鏈(chain-of-thought)中真正納入圖像理解能力。
圖/ OpenAI
簡單來說,它不僅能識別信息,還能把這些視覺輸入納入思維過程,成為完整邏輯鏈的一部分。不同于 GPT-4o 這類多模態模型,GPT-4o 雖然能「看圖」,但更多是為了給出自然語言響應,而 o3、o4-mini 的圖像處理是為了解決問題——它是推理的一環。
與此同時,作為官方認證的最強模型——o3,還是第一個調用 ChatGPT 全部工具的推理模型,包括搜索網絡、Python、圖像生成、代碼解釋器、文件讀取等。并且在與 o1 相同的延遲和成本下,o3 在 ChatGPT 中實現了更高的性能。
但實際表現如何,還是上手體驗才有結果。
OpenAI「最強推理模型」上手:名副其實
對于推理模型而言,推理能力自然是重中之重,先來一道倫理推理題,非常考驗模型的推理能力,我們也對比了 DeepSeek-R1 以及 Gemini-2.5-Pro 兩大頂尖模型。
但在揭曉回答之前,o3 最驚艷的就是思考過程推導的嚴謹和流暢,相比之下,DeepSeek-R1 的思考過程就顯得相當冗長和重復,思考非常久,最終的回答卻很難令人滿意。
圖/雷科技
在 DeepSeek-R1 的回答中,實際只回答了「憤怒的原因」,而沒有回答出「崩潰的原因」。在 Gemini-2.5-Pro 的回答中,雖然更進一步推理出了「女兒撒謊」這個因素,但也很難導致「父親崩潰」。
圖/雷科技
o3 則相當完美地抓出「色盲」的關鍵判斷,進一步根據生物遺傳知識推導出最終的解釋。這里還要一提的是,其實 DeepSeek-R1 在思考過程中也提到了「色盲」這個點,但并沒有認為有效的推導。
此外,o3 以及 o4-mini 的一大突破在于將視覺能力納入思維鏈之中,相比之前阿里推出的視覺推理模型 QVQ-Max 更進了一步。
你可以上傳一張機場照片,它會識別出航站樓建筑、乘客流線和標識系統,再結合你的問題完成空間動線的規劃或問題診斷。這種「圖像不是輸入素材,而是參與推理的變量」的設計,也是過去 o 系列推理模型所不具備的。
更重要的是,它可以根據圖像實時思考分析策略。
比如最近 AI 行業非常關鍵的一件事,就是支付寶在前幾天聯合魔搭社區剛剛上線了支付 MCP Server 讓 AI 智能體打通了「變現」的支付環節。我就拿一段演示視頻發送給 o3,詢問「視頻里展示技術的關鍵之處」,甚至沒有告訴它任何背景信息。
圖/雷科技
而在實際測試中,o3 會提取不同時間的關鍵幀理解視頻,再結合自身分析推理和聯網能力,明確定位到了支付寶「支付 ?MCP?Server」的,并且結合信息分析了支付寶「支付 ?MCP?Server」的關鍵意義。
不僅如此,在一段關于短視頻優化的測試中,o3 被要求分析后臺數據并結合視頻分鏡做優化策略,輸出的內容不僅覆蓋「3 秒留人、節奏剪輯、文案鉤子」等核心策略,還匹配了具體視覺節奏建議。
圖/雷科技
這點來看,o3 很像一個有一定審美和經驗的「專業創作者助手」,能針對實際的視頻內容,而不是「簡單套模板」的自動化建議。
而從這些測試也能看出,o3 懂得什么時候該分析、什么時候該搜索、什么時候該調用工具、什么時候該總結。而這種「主動思維+執行鏈條」,正是當下大模型集體演進的一個重要方向。
所以,它真的是 OpenAI 迄今為止最智能的模型嗎?從目前的體驗來看,確實稱得上名副其實,甚至在不同推理模型的對比也是表現最強的。
用完 o3 最大的感受,你會覺得它在真正理解任務——而不只是理解你的意圖。在思考過程中能夠明顯看到這一點,同時還有 o3 在視覺理解、工具調用以及強大的推理能力。
也正因為如此,用完 o3 后,那些關于 GPT-5 的想象也變得更具體了。
山姆·奧爾特曼明確說過,GPT-5 會整合 GPT 系列與 o 系列,而按照最新透露出的消息,GPT-5 的推出時間基本鎖定在今年夏天。按照時間來看,GPT-4.1/GPT-4.5 和 o3/o4-mini 很可能就是最后一代「獨立」模型,也是被「整合」的主力。
如果兩者真的融合,那會不會是一個既能讀百萬 tokens,又能跨模態行動,還能自主調度工具進行思維鏈的大一統模型?無論如何,這確實是未來幾個月 AI 行業最值得期待的懸念之一。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.