2025年,注定是AI智能體爆發元年。
在這場流量和技術狂歡中,新技術動輒冠以“站起來”的光環,在這樣的主旋律下,AI數據、案例烏龍往往被淹沒在洶涌的正向洪流中,更有甚者提出問題會被懷疑居心。
但隨著AI應用的深入,時下最火的DeepSeek也不可避免深陷“幻覺陷阱”泥潭。
一方面,從醫療診斷中的虛假處方,到法律文書中的虛構案例,再到新聞事件傳播中的合成信息,AI的“謊言”正以流暢的邏輯、專業的表述滲透到現實。
今年2月,如果不是長期從事人口研究的中國人民大學教授李婷的公開辟謠,很多人都對“中國80后累計死亡率為5.20%”這組數據深信不疑,其背后原因很有可能是AI大模型出錯。
另一方面,AI大模型也正成為謠言的放大器,從新聞消息到股市“黑嘴”,從網絡平臺虛假信息到被納入信源范圍、再到錯誤答案或謠言,已經形成完整閉環,從超一線明星到眾多上市公司都被迫成為主角。
如最近瘋傳的“超一線明星在澳門輸了10億”的消息持續發酵,最后被證實是網民徐某強(男,36歲)為博取流量、謀取非法利益,使用軟件“某書”中AI智慧生成功能,輸入社會熱點詞制作了標題為“頂流明星被曝境外豪賭輸光十億身價引發輿論海嘯”的謠言信息,最終被處以行政拘留8日的處罰。
再比如華勝天成、慈星股份因DeepSeek被推上風口浪尖等。
當AI幻覺從技術缺陷變為社會問題,人類該如何重建對AI的信任圍墻。
AI幻覺的本質
技術“想象力”的另一面
什么是AI幻覺?
簡單來說,AI幻覺指的是AI也像人產生心理幻覺一樣,在遇到自己不熟悉、不在知識范圍的問題,編造難以明辨真假的細節,生成與事實相悖的答案,更籠統些,AI胡說八道的本領就是AI幻覺。
在現有技術水平下,AI幻覺比例其實非常高。來自Vectara機器學習團隊的幻覺測試顯示,截止到2025年2月28日,各主流AI大模型都或多或少存在AI幻覺問題。其中時下最火的
DeepSeek-R1,幻覺率高達14.3%,遠超行業其他推理模型。數據顯示,即使是DeepSeek-V3,幻覺率也高達3.9%,OpenAI-o1的測試結果是2.4%。
圖片來源于Vectara
AI為什么會產生幻覺,要了解這個問題,首先要明白AI大模型的技術根源。
大模型的本質是一種對人類知識的數學化和統一化,背后是Transformer架構的出現、算力的提升、以及互聯網海量文本及數據量的爆炸式增長。
其實AI大模型的工作流程比較清晰,輸入文本 → 拆分為token → 神經網絡數學變換 → 自注意力分析上下文 → 計算所有可能詞的概率 → 選擇輸出詞 → 循環生成結果。
整個過程本質是通過海量數據訓練,讓模型學習文本中的統計規律(如詞與詞的搭配概率、語義關聯),而非真正“理解”內容。Transformer架構的生成邏輯,實則是場精心設計的賭博。每個token選擇都是有概率分布的輪盤賭,當模型在“三馬前兩個是馬云、馬化騰”詞條后以更高的概率選中“馬明哲”時,馬明哲就會成為問題的答案。
根據這個工作流程可以發現,AI幻覺的共性原因主要歸結以下三點。
第一,基礎訓練數據的病根。
互聯網發展幾十年來,從來沒有過信息精細化時代,無論是過去還是現在,互聯網語料庫的參差不齊和無法保障的準確度,都從根本上為AI幻覺埋下了病根。
無論是訓練中可能包含的錯誤、偏見、虛構或者不完整的信息,模型自然會學習并復現這些錯誤。另外,如果問題超出訓練數據的覆蓋范圍,模型可能依賴統計模式“編造”答案,而非基于真實知識。
第二,概率生成機制的設計矛盾。
通常來說,AI大模型被要求“流暢回答”而非“謹慎求證”,訓練時更關注生成文本的流暢性(如語法正確、上下文連貫),而非事實準確性。因此在被提問到冷門問題時,AI寧可編造細節也不會回答“我不知道”。
與此同時,AI大模型生成過程中沒有內置機制(如實時訪問數據庫)驗證事實,導致錯誤無法被發現并及時修正。
第三,無法真正理解人類思維。
AI不具備人類的常識或物理世界的體驗,無法驗證生成內容是否符合現實邏輯,在某些任務上過度擬合訓練數據或者泛化能力不足時,都有可能生成不合理內容。
此外,在通過人類反饋強化學習(RLHF)優化模型時,會出現過度迎合用戶期望,比如提供看似詳實的回答,而非嚴格追求真實。
因此,AI幻覺實則是從“數據缺陷”到“設計矛盾”的綜合作用下的產物,是一種必然。
那么,為什么DeepSeek幻覺率要明顯高很多?答案藏在其出色的推理能力里。
在Vectara機器學習團隊的研究里,通過HHEM 2.1 來分析幻覺率,發現DeepSeek-R1 在幻覺率上比 DeepSeek-V3 高出了 大約 4 倍。
圖片來源于Vectara
研究人員進一步提出,推理增強的模型可能會產生更多幻覺,而這一點在其他推理增強模型中也有所體現。例如,GPT 系列的 GPT-o1(推理增強)和 GPT-4o(普通版)之間的對比顯示,推理增強模型的幻覺率通常也較高。
圖片來源于Vectara
以此來看,推理增強模型可能會更容易產生幻覺,因為它們在推理過程中處理了更多復雜的推理邏輯,可能因此產生更多無法與數據源完全匹配的內容。
DeepSeek-R1 的推理能力雖然強大,但伴隨其而來的幻覺問題也更為明顯。但相較于DeepSeek, GPT-o1 的幻覺率較 GPT-4o 差距沒有那么大,因此在實測階段,GPT 系列在推理與幻覺之間的平衡顯然做得比 DeepSeek好。
較高的幻覺率,更容易生成與真實數據不符或者偏離用戶指令的現場,而在醫療、法律、金融等對準確性要求高的領域,AI會帶來嚴重的后果。
DeepSeek-R1在這方面尤其明顯,在撰寫專業內容時,盡管已經前置化要求信源準確,但DeepSeek給出的答案依然差強人意。在討論AI醫療方面的問題,DeepSeek給出了詳細的數據及信源,但圖中所有數據及信源,絕大部分為虛構。例如DeepSeek回答中的Google的Vision Transformer ViT-22B,2023年報告達90.45%,實際上是Transformer進階版ViT-G/14在2021年的數據,
在比如“AI系統(如Google Health 2023年研究)在乳腺鉬靶影像中達到92%準確率,略低于人類放射科醫生的96.3%(NHS臨床試驗數據)”中,實際上是Google Health在2020年《自然》上發表的論文,其中結論是研究人員讓人工智能系統與6名放射科醫生進行對比,結果發現人工智能系統在準確檢測乳腺癌方面優于放射科醫生,DeepSeek顯然張冠李戴的同時,又以極專業的表述讓人信服。
再比如,當詢問DeepSeek中國醫院AI醫療布局情況,DeepSeek給出的回答同樣漏洞百出,經核查大部分為虛構信息。
早在去年,互聯網大佬周鴻祎和李彥宏就曾因為AI幻覺問題進行過觀點交鋒。
在去年全球互聯網大會上,周鴻祎明確指出,大模型幻覺不可消除,幻覺是大模型與生俱來的特點,沒有幻覺就沒有智能,人與很多動物的區別就是人能描繪不存在的事情,這就叫杜撰的能力。
而在那之前,李彥宏表示“要想基于大模型開發應用,消除幻覺是必須的,如果這個模型總是一本正經地胡說八道,就不會有人信你,就不會有應用。”并強調經歷了2年左右的發展,大模型基本消除了幻覺,它回答問題的準確性大幅提升了,這讓AI變得可用、可被信賴。
事實上,周鴻祎和李彥宏的觀點基本上是行業中對于AI幻覺的兩個看法,怕AI沒有創造力,又怕AI亂幻想。但就現階段而言,AI幻覺的危害已經顯現出來。
當AI開始說謊
人類后真相時代可能提前到來
毫無疑問,AI幻覺,正在侵蝕人類真實世界,我們正面臨一場前所未有的信息真實性“戰爭”。
據南都大數據研究院發布的“AI新治向”專題報道,2024年搜索熱度較高的50個國內AI風險相關輿情案例中,超1/5與AI造謠有關,AI謠言,已經成為社會公害。
另外,68%的網民曾因AI生成的“專家解讀”“權威數據”而誤信謠言。作為新技術,很多人對AI給出的答案深信不疑,但AI數據的真實性卻無人擔保。
中國信通院相關負責人透露,中國信通院曾做過試驗,當在特定論壇連續發布百余條虛假信息后,主流大模型對對標問題的回答置信度就會從百分之十幾快速飆升。這就像在純凈水中滴入墨水,當污染源足夠密集,整個知識體系都會被扭曲。
今年年初,紐約大學研究團隊在《自然醫學》雜志上發表的論文中指出,如果訓練數據中被注入了虛假信息,LLM模型依然可能在一些開放源代碼的評估基準上表現得與未受影響的模型一樣好。這意味著,我們可能無法察覺到這些模型潛在的風險。
為了驗證這一點,研究團隊對一個名為 “The Pile” 的訓練數據集進行了實驗,他們在其中故意加入了150,000篇 AI 生成的醫療虛假文章。僅用24小時,他們就生成了這些內容,研究表明,給數據集替換0.001% 的內容,即使是一個小小的1百萬個訓練標記,也能導致有害內容增加4.8%。這個過程的成本極其低廉,僅花費了5美元。
如今這些漏洞,正在被大肆利用,通過自動化腳本在多個論壇同步投放虛假信息,接著利用爬蟲技術加速搜索引擎收錄,最后用污染后的AI回答進行社交媒體裂變傳播,已經形成一個完整黑色產業鏈。
美國麻省理工學院傳媒實驗室曾在一個報告中表示,假新聞在社交媒體的傳播速度是真實新聞的6倍。而如今,AI加持下,謠言生產成本會大幅降低。
在公共安全事故中,AI謠言不僅會擾亂視聽、干擾救援節奏,還容易引發民眾恐慌。當造謠者通過收割流量,社會付出的代價其實是信任的崩塌與秩序的混亂。
不夸張的說,AI所制造的虛假信息已經影響了美國政治,如特朗普在競選中所引用的非法移民食用寵物的圖片,就是AI合成;而馬斯克所引用的USAID付給克林頓女兒切爾西·克林頓8400萬美元的信息,也是AI所編造。
世界經濟論壇發布的《2025年全球風險報告》顯示,“錯誤和虛假信息”是2025年全球面臨的五大風險之一,從新聞到股市到謠言,AI正成為沒有情感的幫兇。
與之對應的醫療風險、法律陷阱和學術造假,也會短時間成為社會公害。
更嚴重的是,我們可能會提前進入后真相時代。
牛津字典把“后真相”定義為“訴諸情感及個人信念,較客觀事實更能影響民意”。
和“網絡謠言”、“虛假信息”和“宣傳操控”等話題的關注點有所不同,“后真相”并不強調信息準確與否的重要性,而是強調輿論分裂和極化的根本原因,是人們傾向于選擇那些他們更愿意接受的信息,并將其當做“真相”。
在娛樂至上的現在,人們往往在還沒弄清楚真相的同時,就已經在情緒的驅動下莫名其妙站了隊。而真相從來不是單一維度的,它是由多層次、多角度的復雜信息交織而成的。從利用AI幻覺,到利用AI制造幻覺,AI正以人類未曾想過的方式影響著這個世界。
錯的或許不是AI,是利用AI缺陷的人,但在流量時代,人類信息甄別能力在喪失,這不是一個好現象。因此,是時候行動起來了。
如何應對AI幻覺泛濫
技術修補和社會聯防外更需自身謹慎
AI幻覺問題本身是AI技術問題,在短時間內也很難通過技術手段完全規避。
但借助網絡和社交媒體,前沿技術潮流到普通民眾的速度太快了,很多人都還沒做好接受新技術的準備,就被涌來的浪潮裹挾前行,更有甚者成為了鐮刀或韭菜。
AI幻覺治理,已經箭在弦上,具體方案無外乎技術修補和社會聯防。
技術修補主要依賴技術平臺和內容平臺雙向努力。
在技術修補層面,各AI大模型平臺都需要慎重處理互聯網海量文本篩選,加強數據監管,確保AI訓練數據的真實性和合法性,防止數據污染。
同時要通過AI技術比如自然語言處理(NLP)技術,分析數據的語義、邏輯結構,識別文本中的矛盾、不合理表述,盡量避免數據投喂中涌入虛假信息。
此外,要合理處理推理能力和準確性的平衡。前文說到,DeepSeek-R1有較高的幻覺率,但其在推理能力方面確實較為出色,創造力和準確度,是AI大模型天平的兩端,任何一端失衡,都會出現致命問題。
目前已經有很多團隊在開發AI生成內容檢測技術,讓AI生成內容自帶“水印”等隱藏符號,也能夠有效甄別AI幻覺生成內容。如騰訊混元安全團隊朱雀實驗室研發了一款AI生成圖片檢測系統,通過AI模型來捕捉真實圖片與AI生圖之間的各類差異,最終測試檢出率達95%以上,以后此類工具和技術會越來越多。
對于內容平臺來說,互聯網上海量數據,絕大部分以內容平臺為信息傳播渠道。無論是百度、抖音、今日頭條、微博、快手還是小紅書,都應該守好內容底線,及時發現,及時治理,及時辟謠,同時要組建專業審核團隊,不讓AI幻覺產出的內容及利用AI產出的虛假內容在互聯網擴散。
與此同時,相關法律法規和政策也需要盡快落實。更重要的是,用戶自己要學會辨別虛假信息,加強防范意識。對AI堅持“保持警惕,交叉驗證,引導模型,聯網搜索和享受創意”的原則,謹慎且擁抱。
就目前而言,無論是今日頭條、還是百家號亦或是微信公眾號,AI生成內容已經泛濫,如何治理,是各平臺亟需思考的問題。
但有一點是可以肯定的,對于DeepSeek等AI大模型來說,AI技術的科技之光,不能讓深信它們的普通民眾為漏洞買單。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.