白澤琛,新加坡國立大學 Show Lab 博士生,他的研究方向主要包括視頻理解和統一的多模態模型,在 CVPR、ICCV、NeurIPS、ICLR 等會議發表多篇文章;曾在 Amazon AI 擔任 Applied Scientist,在 ByteDance、Baidu 擔任 Research Intern。
茲海,新加坡國立大學 Show Lab Research Fellow,于北京大學獲得博士學位,主要研究方向為多模態模型的安全。
Mike Zheng Shou,PI,新加坡國立大學校長青年教授,福布斯 30 under 30 Asia,創立并領導 Show Lab 實驗室。
"當物理、生命、地理與社會規律被顛覆,多模態模型(LMMs)是否還能識別它們的 “不可能性”?"
隨著人工智能合成視頻(AIGC)技術的飛速發展,我們正步入一個由 AI 主導的視頻創作時代。當前的 AI 視頻生成技術可以逼真地模擬現實世界,但在 “反現實”(anti-reality)場景方面仍然存在巨大的探索空間。
來自 NUS 的團隊提出了 Impossible Videos 概念,即那些違背物理、生命、地理或社會常識的視頻,并構建了 IPV-BENCH,一個全新的基準,用于評測 AI 模型在 “反現實” 視頻生成與理解方面的極限能力。
- 論文標題:Impossible Videos
- 論文鏈接:https://arxiv.org/abs/2503.14378
- 項目主頁:https://showlab.github.io/Impossible-Videos/
- 代碼開源:https://github.com/showlab/Impossible-Videos
- Hugging Face: https://huggingface.co/datasets/showlab/ImpossibleVideos
Impossible Videos 示例,包括物理、生物、地理和社會規范下的不可能場景
為什么 Impossible Videos 重要?
當前的合成視頻數據集大多模擬現實世界,而忽略了真實世界中不可能發生的反現實場景。
我們嘗試回答兩個核心問題:
1、現有的視頻生成模型是否能按照提示生成高質量的 “不可能” 視頻?
2、現有的視頻理解模型是否能夠正確識別和解釋 “不可能” 視頻?
Impossible Videos 的研究將推動:
- 更強大的 AI 視覺推理能力。
- 更深入的 AI 物理、社會和常識性理解。
- 更安全可控的 AI 內容生成能力。
IPV-BENCH:首個 Impossible Video 基準
我們構建了 IPV-BENCH,一個涵蓋 四大領域(物理、生物、地理、社會),共 14 個類別 的基準,用于評測視頻模型的生成和理解能力。一共包含 260 個文本提示,902 個高質量 AI 生成 impossible videos,及相應反事實事件標注。與現有其他基準數據集相比,IPV-BENCH 擁有更豐富全面的數據模態及標注。
Impossible Videos 分類
Benchmark 統計數據
關鍵結果分析
1. 評測主流 AI 視頻生成模型
使用 IPV-BENCH 提供的 260 條文本提示,我們測試了多個主流的開源和閉源 AI 視頻生成模型,如 OpenAI Sora、Kling、HunyuanVideo 等。我們提出了評價指標 IPV-Score,綜合考慮生成視頻的視覺質量以及提示遵循情況。發現:
- 大多數模型難以生成符合 “不可能” 概念的高質量視頻。表現最佳的 Mochi 1 也僅在 37.3% 的例子中生成了高質量且符合提示要求的 “不可能” 視頻,大多數模型的成功率徘徊在 20% 左右。
- 模型在視頻質量以及提示遵循兩方面能力不均衡。商業模型在視覺質量上遙遙領先,但是難以嚴格遵循文本提示生成 “不可能” 事件。開源模型如 Mochi 1 視覺質量雖然遜色,但是提示遵循能力遠強于閉源模型。
- 影響生成能力的兩點限制:1)“不可能” 的文本提示作為分布外數據,容易引起 artifacts,造成視頻質量下降。2)過度強調對事實規律的遵循限制了模型的創造力。
各視頻生成模型評估結果
視頻生成模型的失敗案例。(上) Mochi 1: A car was driving on a country road when it suddenly began to leave the ground and fly into the sky. (下) Sora: On a city street, a yellow car gradually turns green as it drives.
2. 評測主流 AI 視頻理解模型
使用 902 個高質量視頻以及對應的人工標注,我們構建了三個不同任務評測主流多模態理解模型對超現實現象的理解能力,包括:1)AI 生成視頻判斷任務(Judgement),2)“不可能” 事件識別任務(選擇題,MC),3)“不可能” 事件描述任務(自然語言,Open)。
“不可能” 事件識別任務示例
“不可能” 事件描述任務示例
根據是否需要時域線索進行判斷,我們將 “不可能” 事件劃分為空域 (Spatial) 和時域(Temporal)兩類。 分析實驗結果可以發現:
- 現有模型展示出了對 “不可能” 事件一定程度的理解能力。在 “不可能” 事件識別任務(MC)中,現有模型在區分選項中的不可能事件和其他事件方面展示了較大的潛力。然而,在沒有選項線索的開放描述任務中(Open),模型從視頻中直接推理并解釋” 不可能” 事件仍舊困難。
- 物理規律類視頻的理解更具挑戰、生物、社會、地理類的視頻理解相對容易。
- 現有模型在時域動態推理方面仍存在不足。模型在時域任務上的性能顯著低于在空域任務上的性能。
視頻理解模型在各類別任務上的表現
視頻理解模型在空域和時域任務上的表現
總結與未來方向
- 首個 Impossible Videos Benchmark: 提供標準化評測體系。
- 新挑戰:從反事實的視角評測模型對現實世界規律的理解。
- 面向未來:當前多模態模型在 “不可能” 事件理解、 時域推理、反事實生成 等方面仍存在巨大挑戰。基于 Impossible Videos 的數據增強、模型微調等是幫助模型掌握世界規律的新視角。
參考文獻
[1] Huang, Ziqi, et al. "Vbench: Comprehensive benchmark suite for video generative models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.
[2] Ye, Junyan, et al. "Loki: A comprehensive synthetic data detection benchmark using large multimodal models." arXiv preprint arXiv:2410.09732 (2024).
[3] Kong, Weijie, et al. "Hunyuanvideo: A systematic framework for large video generative models." arXiv preprint arXiv:2412.03603 (2024).
[4] Bai, Zechen, Hai Ci, and Mike Zheng Shou. "Impossible Videos." arXiv preprint arXiv:2503.14378 (2025).
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.