新智元報(bào)道
編輯:LRST 好困
【新智元導(dǎo)讀】港中文和清華團(tuán)隊(duì)推出Video-R1模型,首次將強(qiáng)化學(xué)習(xí)的R1范式應(yīng)用于視頻推理領(lǐng)域。通過升級的T-GRPO算法和混合圖像視頻數(shù)據(jù)集,Video-R1在視頻空間推理測試中超越了GPT-4o,展現(xiàn)了強(qiáng)大的推理能力,并且全部代碼和數(shù)據(jù)集均已開源。
語言模型的推理剛火完,視頻AI也開始「卷」起來了。
這次出手的是港中文+清華組合,直接把強(qiáng)化學(xué)習(xí)里的R1玩法搬到了視頻領(lǐng)域,整出了全球首個視頻版R1模型:Video-R1。
別看它只有7B參數(shù),但它在李飛飛提出的VSI-Bench基準(zhǔn)中,竟然超越了GPT-4o!
這波不是簡單微調(diào)。它背后換上了全新的時間感知算法T-GRPO,再配上圖像+視頻混合訓(xùn)練、兩套高質(zhì)量數(shù)據(jù)集,硬是把AI的視頻推理能力拉滿,讓模型不止能「看」,更開始「思考」。
而且,全套模型、代碼、數(shù)據(jù)集——已經(jīng)開源了!
視頻大模型的「推理時刻」,已經(jīng)開始。
論文鏈接:https://arxiv.org/abs/2503.21776
項(xiàng)目地址:https://github.com/tulerfeng/Video-R1
知名博主AK也連發(fā)2條推特,推薦這篇論文:
為什么視頻大模型總是「不聰明」?
視頻模型看起來「懂點(diǎn)東西」,其實(shí)大多都只是表面功夫。真正讓它們「動腦子」的地方,反而是它們最弱的短板。
研究團(tuán)隊(duì)指出,如果還按照傳統(tǒng)GRPO的套路來訓(xùn)練AI看視頻,會踩兩個坑:
一個是沒時間概念,模型完全不知道視頻事件的前后邏輯,常常「看圖說話」——看到一幀畫面就急著給出答案。這種套路最多就是蒙對幾次,沒法形成真正的因果推理,泛化性差。例如下圖所示。
另一個問題更棘手:訓(xùn)練數(shù)據(jù)太淺。很多現(xiàn)有視頻數(shù)據(jù)集壓根就不適合教模型「思考」,清一色的識別題,幾乎沒多少需要推理才能解的任務(wù)。模型怎么練都只是在死記硬背,根本沒機(jī)會練大腦。
所以,視頻大模型「不聰明」,真不是沒潛力,而是沒人教對方法。
一套獎勵機(jī)制,把視頻推理訓(xùn)會了
研究團(tuán)隊(duì)整了個狠招:獎勵機(jī)制綁定時間理解。
研究人員把舊版GRPO算法升級成了更懂時序的T-GRPO,直接把「考慮時序」這事寫進(jìn)了模型的獎勵邏輯里。
方法簡單粗暴又高效——模型每次會收到兩組輸入:一組視頻幀隨機(jī)亂序,一組順序。只有當(dāng)它在「順序」輸入上答對題的比例更高,才會獲得獎勵。
這個機(jī)制在「教」模型:別光看圖,推理得講前因后果。哪怕只看了一幀猜對了題,也拿不到分。
在這種嚴(yán)格打分機(jī)制下,模型終于明白——視頻不是PPT翻頁,而是一個個邏輯線索串起來的故事。
靠混合數(shù)據(jù)打通任督二脈
視頻推理數(shù)據(jù)太稀缺,模型「練不成」?
研究人員干脆把圖像推理數(shù)據(jù)請進(jìn)視頻訓(xùn)練流程,做了兩個關(guān)鍵數(shù)據(jù)集:一個是圖像為主的Video-R1-COT-165k,專門用來冷啟動模型思維;另一個是以高質(zhì)量視頻為核心的Video-R1-260k,用來精調(diào)強(qiáng)化訓(xùn)練。
別以為圖片只是打輔助,恰恰相反——它幫AI打好了「邏輯底盤」,學(xué)會怎么通用推理;而那些優(yōu)選過的視頻數(shù)據(jù),則進(jìn)一步逼它理解時間邏輯和動態(tài)變化。
這套圖像+視頻混合訓(xùn)練方式,不光解決了數(shù)據(jù)稀缺,還真讓模型形成了從「看圖說話」到「視頻深思」的進(jìn)階跳躍,真正打通了多模態(tài)理解的任督二脈。
視頻推理的「aha moment」
Video-R1在推理過程中,竟然出現(xiàn)了類似人類的「頓悟時刻」——那種突然把所有線索串起來、恍然大悟的瞬間,也被稱為「aha moment」。
比如有一道題是:哪個動作會導(dǎo)致系統(tǒng)能量損耗?另一個是:看完一段室內(nèi)漫游視頻,推理出從書柜走到浴缸的路徑。
換做以前的模型,十有八九就是「看一眼」就開答,但Video-R1卻能一步步分析時序,進(jìn)行推理,最終給出邏輯閉環(huán)的準(zhǔn)確回答。
這不是死記硬背,而是推理真正生效的信號。AI第一次表現(xiàn)出:它不只是識圖,而是在「思考」視頻里發(fā)生了什么。
實(shí)驗(yàn)結(jié)果
在多個視頻推理測試基準(zhǔn)上,這個Video-R1-7B模型幾乎場場領(lǐng)先,尤其在李飛飛提出的VSI-Bench這一權(quán)威評測中,它拿下了35.8%的準(zhǔn)確率,超越了閉源頂尖大模型GPT-4o。
不僅如此,RL和傳統(tǒng)SFT之間的差距也被拉開了。比如同樣是7B體量的Qwen2.5-VL-SFT,在測試中表現(xiàn)不佳。反觀Video-R1,則在幾乎所有場景中都穩(wěn)定輸出,泛化能力一騎絕塵。
還有一個非常關(guān)鍵的發(fā)現(xiàn):幀數(shù)越多,推理越準(zhǔn)。當(dāng)模型輸入的視頻幀數(shù)從16增加到32,再到64,測試表現(xiàn)都跟著上臺階。這說明,對時間線的理解力,正是視頻推理模型的決勝點(diǎn)——誰能處理更長的視頻,誰就更有未來。
團(tuán)隊(duì)還做了一組消融實(shí)驗(yàn),直接「抽掉」圖像數(shù)據(jù)訓(xùn)練、再試試砍掉時間建模模塊,結(jié)果都一樣——模型性能明顯下滑。這直接驗(yàn)證了一件事:Video-R1的每一塊設(shè)計(jì)都打在了點(diǎn)子上。
不僅如此,從訓(xùn)練動態(tài)中也能看出門道。隨著強(qiáng)化學(xué)習(xí)的推進(jìn),模型獲得的準(zhǔn)確率獎勵和時間獎勵在持續(xù)上升,說明它不僅越來越會答題,還越來越懂得「時間邏輯」這回事。
有意思的是,模型在訓(xùn)練早期輸出的回答變短了——這是在主動拋棄之前SFT里學(xué)到的次優(yōu)推理模式;但隨著訓(xùn)練推進(jìn),輸出逐漸恢復(fù)并穩(wěn)定,形成了一套更高效、更具邏輯的表達(dá)路徑。
Video-R1用實(shí)力證明:強(qiáng)化學(xué)習(xí)不只是NLP的專利,視頻大模型也能玩出推理力。
它不靠「堆料」,靠的是機(jī)制設(shè)計(jì)和訓(xùn)練策略,并且全套開源。
R1的推理范式,正在把下一場AI革命,從文本世界帶進(jìn)了每一幀畫面里。
視頻推理的時代,真的來了。
參考資料:
https://arxiv.org/abs/2503.21776
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.