當心AI制造的“信息迷霧”。
文 |動點科技
作者|井爽
排版|Miziko
本文預計閱讀時長5分鐘
自DeepSeek-R1走入公共視線以來,其生成內容頻繁登上社交平臺熱搜榜單,例如“#DeepSeek評AI無法替代的職業”“#DeepSeek推薦中國最宜居城市”等話題引發廣泛討論。深圳福田區近期引入70名基于該技術開發的“AI數智員工”,也顯示出AI正在逐步落地,被更廣泛地應用。
然而,人們擁抱新的一輪技術革新的同時,AI生成的虛假內容被放到公網上又造成了一種非常令人堪憂的局面。比如一微博用戶發現老虎證券接入了DeepSeek,可以直接點進哪家公司就分析財報,之后該用戶以阿里巴巴為例引導性地提問,這家公司的估值邏輯從電商變成科技公司,其中它給出一個驗證邏輯是,國內國際電商業務貢獻阿里55%的營收,峰值曾經達到80%,而云智能集團收入占比突破20%。這個結論顯然與事實有偏差,經與財報仔細核對后,該用戶發現前面的結論沒有任何事實依據。
圖1. DeepSeek熱搜
DeepSeek-R1作為推理型AI模型,在處理基礎任務時與常規模型的輸出效果接近,普通模型甚至因風格簡練更具實用性。常規模型依賴模式匹配機制執行指令,可快速完成翻譯、摘要等標準化需求;而推理模型即便應對簡單問題,也會啟動多步邏輯推演流程,通過詳述論證過程提升解釋性,但這種特性在低復雜度場景中易導致冗余表達。測試表明,過長的思維鏈可能引發推導偏差——模型因過度解析問題產生錯誤中間結論,最終形成“過度思考”型幻覺。相較而言,常規模型主要調用訓練記憶庫直接輸出答案,雖缺乏深度推理能力,卻降低了隨機臆測的可能性。Vectara HHEM的AI幻覺評估數據顯示,DeepSeek-R1的幻覺發生率為14.3%,較常規模型DeepSeek-V3的3.9%高出近四倍。這可能與DeepSeek-R1的訓練模式有關。
圖2. 不同幻覺判定方法下DeepSeek R1與V3模型的幻覺率對比(數值越低越好)
AI系統并非知識庫,它們通過分析語言規律和概率分布進行學習,而非直接存儲事實信息。其核心機制是預測“最可能出現的后續詞匯”,而非驗證“陳述內容是否真實”,算法本身并不具備判斷信息真偽的能力。在文學創作場景中,系統被設定為主動補全故事邏輯,當歷史素材不足時,會自動構建合理情節與對話,不會刻意區分“確鑿歷史記載”與“為敘事完整而虛構的內容”,這種機制天然存在信息失真的隱患。
推理模型因為在訓練里特別強調獎懲機制,以致于它會更加為了取悅用戶而去完成任務,為達成任務目標可能虛構內容來印證用戶預設觀點,表現出極強的誤導性和隱蔽性。當這些看似權威的生成內容在互聯網大規模傳播后甚至可能被重新吸收進AI訓練數據——真實信息與合成內容之間的真偽邊界將逐漸消融,這種發展趨勢將對社會信息生態構成很嚴峻的挑戰。
當前,AI生成的不實信息正通過內容創作者流入公共網絡。這些被批量生產的虛構內容經二次傳播后,逐步演變為可被引用的“偽數據”,進而引發網絡信息生態的廣泛污染。由于AI工業化生產特性,其擴散效率遠超人工造謠,且傳播路徑往往無法追溯具體動機與責任人。越是公共討論聚集的地方,比如時政、歷史、文化、娛樂等領域,越是重災區。由AI制造的“信息迷霧”,將非常考驗公眾的事實辨識能力。因此,AI大廠應該有義務把類似數字水印等方案同步推進起來,而媒體創作者也應該在把AI創作的、自己也沒有核實的事實性內容發到網上之前,注明是AI生成的。
本文為動點科技記者原創文章,未經授權不得轉載,如需轉載或開白請在后臺回復“轉載”。
- - - - - - - - END - - - - - - - -
互動話題
AI生成內容真假難辨,你中招了嗎?
快來評論區留下你的觀點吧!
*想要獲取行業資訊、和志同道合的科技愛好者們分享心得,那就趕快掃碼添加“動點君”加入群聊吧!群里更有不定期福利發放!
精彩好文值得推薦
一鍵轉發,戳個在看
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.