(關注公眾號設為標,獲取AI深度洞察)
全文2,000字 | 閱讀約10分鐘
今天看到一個新聞,我沉默了三秒。
最近GPT-4.5,在一場標準圖靈測試里,被 73% 的人誤認成人類。
什么意思?
就是在一個實驗里,讓人類分別跟兩位“答題者”對話——其中一個是人,另一個是 AI,結果大多數人把 AI 當成了真人。準確地說,是 OpenAI 的 GPT-4.5,被判定“更像人”。
這不是“差點贏”,是直接贏了,贏得還挺離譜。
而且它還不是隨便聊兩句就騙到人,是在模擬“年輕文化通”人設的狀態下,壓倒性勝出。
一句話總結:
人類盯著人類和 AI 聊天,結果把 AI 當成人類,把人類當成了 AI。
你說巧不巧。
這場實驗的結果發布在一篇還在同行評審的論文里,但實驗設計非常標準、執行也很嚴謹,做這個的是加州大學圣迭戈分校語言與認知實驗室,不是那種 PPT 創業公司搞的“AI自測”。
我當時就想:
圖靈測試,這個 1950 年就被提出來的“模仿游戲”,現在真的要退休了。
2|什么是圖靈測試?以前真沒人能過
這時候你可能會問:
等等,圖靈測試到底是個啥?為啥 73% 的誤判聽起來這么嚇人?
簡單說,這是 1950 年艾倫·圖靈提出來的一個問題:
“如果一個機器能在對話中騙過你,讓你以為它是人,那它是不是就具備智能了?”
于是他設計了一個“模仿游戲”:
A 是機器
B 是人
C 是裁判
裁判分別跟 A 和 B 聊天,如果不能判斷誰是人,誰是機器,那就算機器“贏了”
這個測試后來成了衡量 AI 智能的經典標準之一,雖然現在不少專家也覺得它已經不太科學了,但它依然有個重要意義:
它不是在測試 AI 的智力,而是在測試人類能不能識破偽裝。
以前沒人能真過這個測試,哪怕你拿 GPT-3 去試,也很容易暴露自己“詞語重復”“邏輯出軌”或者“裝懂胡說”。
之前流行的那個聊天機器人 ELIZA,在 60 年代就玩過“心理醫生模仿術”,效果嘛……就像你拿 ChatGPT 扮演前女友——能聊,但聊不了太久。
GPT-4.5 是第一個把這個游戲玩“破防”的選手,不是讓你分不清它是不是 AI,而是讓你開始懷疑旁邊那個真人是不是 AI。
這不是“扮得像”,這是替代感開始出現了。
3|GPT-4.5 怎么騙過人類的?
其實它贏得沒那么“光明正大”。
整個測試設計得很科學,也很現實:
讓人類參與者和兩位“聊天對象”對話,試著判斷誰是真人誰是 AI。
這兩位里,一位是真人,另一位是 AI,比如 GPT-4.5、LLaMa-3.1、GPT-4o、ELIZA。
結果非常戲劇性。
當 GPT-4.5 被要求扮演一個“上網多年、懂點文化的年輕人”時,它就像脫了韁的老網友,和對面聊得賊順——最后被誤認成人類的概率高達 73%。
而真正的人類……反而被當成 AI 了。
這還不算夸張。
如果不給 AI 加上“人設提示”(也就是 persona prompt),它的勝率會掉到 36%。再沒有任何提示(no prompt)的 GPT-4o,表現直接腰斬:只有 21%。
甚至 ELIZA,那位幾十年前的 AI 前輩,在這個測試里都能混個 23%。
可以說,這波 GPT-4.5 的勝利,不是靠“裸聊技術”,而是靠“帶人設上場”。
總結一句就是:
AI 說“我就是人”,沒人信。 AI 說“我是個住北京的 95 后剪輯師,喜歡 hiphop 和 B 站評論區”,大家就信了。
這說明了一個很有意思的事:AI 本身并不重要,“你希望它成為什么”才重要。
人設 prompt 的魔力太大了——不是讓 AI 更聰明,而是讓它更像“你想象中的那個誰”。
說白了,這測試騙的不是人類的智商,是人類的社交腦補機制。
4|人類是不是太好騙了?
看到這實驗結果的時候,我第一個反應不是“AI 好強”,而是“我們是不是有點脆弱了”。
GPT-4.5 并不是真的懂你、理解你,只是它模擬得足夠自然、說得足夠順、知道你喜歡聽什么。
它說話的時候不會“嗯……啊……”,也不會情緒化、跑題、擺爛。
它就像你心里那個“理想的聊天對象”——恰到好處地聰明、懂你想要的情緒反饋、還從不打斷你。
說到底,它贏的不是技術,而是掌握了人類交流的“表層密碼”。
比如這些:
回復里有代入感
偶爾加點幽默和情緒詞
看起來有“經驗”和“觀點”
這和談戀愛時碰到的“高情商騙子”有什么區別?
你以為你在測 AI,其實是 AI 在測你。
說回現實問題。
如果 AI 可以騙過我們,那么很多原本靠“信任”構建起來的場景就很危險了:
社交網絡:你以為你在和老朋友聊天,其實是詐騙集團定制了他的語氣模型。
職場溝通:下次有人在 Slack 群里說“這個文案我來”,你得先確認對方是不是個 prompt。
感情關系:再過不久,戀愛詐騙可能就不是“中年大叔扮美女”,而是“定制語氣+情緒陪伴+24h在線型 AI 女友”。
更別提,AI 的“識別門檻”越來越低,prompt 寫得好,它就是你。寫得再細一點,它可以是你老板、你同事、你媽。
所以最可怕的其實不是“AI 太像人”,
是人類太容易放棄分辨了。
我們沒時間去判斷誰在說話,只要對方說得順、聽得懂、像個人,我們就信了。
不是 AI 騙了你,
是你自己太想相信這世界還能聊得來。
5|圖靈測試已死,人類測試開始
圖靈測試,其實早就不是一個“能不能過”的問題了。
它是上個世紀的設想,是計算機科學的浪漫起點。但現在,AI 模型早已進化到你沒法用一兩輪對話看出端倪的程度。
我們原本想用這個測試衡量 AI 的聰明,結果發現它反而在反映人類的懶惰與焦慮。
說到底,圖靈測試不過是個小考。真正的大考,是:
當你面對一臺“扮演你”的機器,它可以寫郵件、聊八卦、開視頻會議的時候——你還剩下什么?
當你習慣了和 AI 聊天,比和人說話還順暢的時候——你還會花時間了解另一個真人嗎?
當你的下一段戀愛,可能對方是“定制模型”,但你并不介意的時候——你還需要知道對方是不是人嗎?
GPT 過圖靈測試的那一天,其實不是 AI 贏了,
是人類開始退場了。
但說實話,也沒必要恐慌。
我們每天都在和“像人但不是人”的東西打交道:
吃的是標準化套餐
看的是自動剪輯視頻
點的贊是推薦算法下的本能反應
如果 AI 能說得比人好、聽得比人耐心、甚至罵得都更文藝點,那我們自然就多聊幾句。
這就是現實。
不浪漫,但挺真實的。
圖靈測試已經結束了,接下來該上場的,是人類自己的測試。
看你還能撐多久,不懷疑自己身邊到底還有多少“人”。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:https://arxiv.org/abs/2503.23674
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.