當我們驚嘆于Deepseek的妙語連珠時,是否正目睹硅基系統對人類語言本源的復刻?那在服務器集群中奔流的矩陣運算,與人腦皮層間跳躍的神經電波,究竟共享著怎樣的“語言密碼”?
借助精密的腦成像技術,人們驚訝地發現,大語言模型的層級結構竟與大腦語言中樞的解剖布局驚人相似。但這種相似性之下,卻暗藏著進化史所塑造的本質分野。
翻開這本跨越生物與數字疆界的對話錄,本文將帶你穿梭于fMRI實驗室與云計算中心之間,解碼語言處理的雙生密碼,見證智能本質的百年追問如何在硅基與碳基的共鳴中找到新的答案。
目錄
一、AI與人類語言系統的相似性
1. 行為·結構·計算原則的全景比較
1.1 行為的模擬
1.2 解剖學的對應
1.3時序動態的重合
1.4計算原則的共振
2. 語言處理相似性背后的影響因素
二、AI與人類語言系統的差異性
1. 進化之異
2. 發展之別
3. 機制之差
4. 功能之辨
三、AI與人類語言系統的雙向賦能
1. AI模型能作為人類的模型生物嗎?
2. 大腦如何啟發AI的推理能力?
AI與人類語言系統的相似性
行為·結構·計算原則的全景比較
(1)行為的模擬
要比較語言模型與大腦行為的相似性,我們可以觀察二者在面對相同的問題設置和情景輸入下的行為表現是否類似。為了探究語言模型在沒有人工干預的情況下,是否能合理地“模擬”出一些多樣的、跨領域的人類行為,艾赫(Aher)等人模擬了AI在經濟行為、語言處理、社會心理學等多個領域的經典實驗中表現[1]。
AI對歧義理解行為的模擬
人類大腦在處理語言時,不僅僅是通過語法來理解句子,還會考慮上下文、情感和社會背景。舉個例子,當你看到一句“他走得很快”,你不僅理解到“走得快”是一個動作,還能通過上下文知道可能是在描述一個急于趕路的人。類似地,大語言模型也能通過訓練數據中的大量語料來理解句子的意義,并進行語言生成。
在花園路句(Garden Path Sentences)實驗中,語言模型能夠通過預測語法結構并調整理解路徑來處理復雜句子,這類似于人類在遇到語法歧義時如何調整注意力、重新評估句子結構。人類和語言模型都依賴于上下文信息來決定詞匯的意義和句子的結構,并能在理解中逐步糾正錯誤。
比如,"The old man the boats." 初看這個句子,讀者可能會將"the old man"理解為“那個老年人”,而將"the boats"理解為“那些船”。然而,正確的結構是:"The old | man the boats" ,其中“the old”是主語,“man”作為動詞,表示“操控”或“管理”,整句話的意思是“老人們操作這些船” 。這個句子一開始可能讓讀者誤入歧途,但是根據上下文的提示,我們可以調整對語義的理解。
AI對社會決策行為的模擬
語言模型還能夠模擬人類在社會中的某些決策行為。比如終極提議博弈(Ultimatum Game)實驗研究了人類在面對不公平提議時會做出怎樣的反應。在這個實驗中,提議者會給出一個分配方案,接受者則有兩個選擇:接受提議或者拒絕。如果接受者接受提議,雙方按照提議者的方案分配資源;如果拒絕,雙方都無法獲得任何資源。人類通常會在面對提議時,考慮公平性和社會規范。語言模型通過大量的文本學習,也能夠在給定條件下生成類似的決策結果。例如,當一個模擬場景中涉及到不公平的提議時,語言模型會生成“拒絕”這一響應,模仿人類對于不公平行為的反應。
?圖1:最后通牒實驗(ultimatum game)中人類行為和語言模型行為的對比
AI對服從行為的模擬
人類個體在面對權威人物或權威制度時,會做出服從的行為,盡管這些行為可能違背個人道德或倫理。在米爾格拉姆電擊實驗(Milgram Shock Experiment)中,研究者探討了人類在權威面前的服從性,而模型能夠模擬出人類在面對權威時的反應,即“遵從指令”這一行為。
?圖2:米爾格拉姆電擊實驗(Milgram Shock Experiment)中人類行為和語言模型行為的對比
AI對群體智慧行為的模擬
AI能夠模擬群體智慧。在群體智慧(Wisdom of Crowds)實驗中,通過模擬多個個體的意見,AI可以產生群體共識,并通過對不同個體回答的組合,展現出了群體決策的特點。例如,AI可以模擬社會群體在特定情況下的選擇傾向,甚至能夠模擬出群體的平均決策結果,這與人類社會中的群體行為類似。
?圖3:“群體智慧”(Wisdom of Crowds)實驗中人類行為和語言模型行為的對比
AI在模擬人類行為方面也存在一些局限性和偏差。例如,在群體智慧實驗中,AI表現出了“過度準確性偏差”(hyper-accuracy distortion),即生成不符合人類常識的異常精準答案。這種偏差表明,AI在模擬復雜的社會行為時,無法完全復制人類在某些情境下的隨機性和不確定性。
(2) 解剖學的對應
要比較一個語言模型與大腦的信息處理方式,我們可以通過觀察二者在面對相同輸入時的“激活模式”來進行比較。所謂的激活模式指的是網絡或大腦在處理某個輸入時,各個神經單元(或神經元)的反應強度或活動狀態。假設我們有一個語音識別的語言模型,我們輸入一段語音信號,網絡會產生一組激活向量。與此同時,我們也可以將同樣的語音信號播放給人類參與者,記錄下他們大腦對該信號的功能磁共振成像反應(fMRI)。這兩者的激活模式可以用來進行比較,但是由于神經網絡和生物大腦的結構不同,如何進行這種比較是一個復雜的挑戰[2]。
比較語言模型和大腦的激活模式時,常用的一種方法是“編碼模型”(encoding model),它可以通過線性回歸的方式來建立兩者之間的聯系。具體來說,這就像是在做一個線性回歸,將語言模型的激活值與大腦fMRI反應之間的關系映射出來。
為什么使用線性回歸模型?這是因為神經科學中定義“表征(representation)”的一個基本概念是線性可解性(linear separability)。如果一種表征方式能夠通過線性回歸被準確預測,那么它就可以被認為是一種有效的“大腦表征”[3]。
?圖4:大腦中的語音表征和語言模型中表征的比較方法
在神經科學中,“體素”是指大腦成像中最小的體積單位。研究人員使用fMRI掃描記錄大腦在處理語言時不同體素的激活情況。通過編碼模型方式處理后,發現大腦中大多數區域都與語言模型的激活模式存在顯著的相關性。
?圖5:大腦中大多數區域都與語言模型的激活模式存在顯著的相關性
這種比較可以擴展到大腦中更廣泛的腦區,比如對比語言模型的激活模式和大腦在更大范圍內的活動情況。深度神經網絡通常由多個層級結構組成。研究人員進一步比較了大腦不同區域的體素與語言模型各層的激活模式之間的關系,希望能找出某些大腦區域與特定網絡層之間的相似性。例如,某些大腦區域可能更傾向于與網絡的第一層激活模式相似,而另一些大腦區域則可能與深層(如第三層或更深層)網絡的激活模式相似。
研究發現語言模型中的低層(藍色層)與大腦的初級聽覺皮層(A1、A2)相對應。這些區域主要負責處理語音的低級特征,如音頻的基本物理屬性;高層(如橙色和紅色層)則與大腦中負責更復雜語音處理的區域相匹配,例如 STS(上顳溝)和IFG(下額回)。這些區域涉及語音的高級處理,如語音的語義理解和上下文推理。
?圖6:大腦區域與特定網絡層之間的相似性
這項研究最有價值的發現是,雖然語言模型是由工程師和研究人員設計的,并且其目標只是通過優化預測自身的激活來提高性能,但這種網絡的層級結構與大腦中實際觀察到的語言處理層級結構非常相似。即使這些深度網絡并未特別設計以模仿大腦的神經結構,優化過程卻使它們自然而然地學習到了類似于大腦的層級表示方式。
(3)時序動態的重合
在理解大腦如何處理語音信息時,除了空間結構的對比,還需要考慮時間維度,即語音處理在大腦中的時序性。大腦處理語音的過程是有時間順序的,從早期的聽覺感知到后期的語義理解,神經活動會隨著時間的推移而變化,因此,理解這個過程不僅需要觀察大腦的空間活動模式,還需要關注大腦反應的時間特征。
為了更加精準地分析時間分辨率,研究者使用了磁腦圖(MEG)技術。磁腦圖是一種能夠測量大腦活動時產生的磁場波動的技術。相比于其他腦成像技術,磁腦圖在時間上的分辨率非常高,能夠實時追蹤大腦神經活動的動態變化,尤其適用于研究大腦如何在時間上處理語音信息[4]。
研究者讓參與者在fMRI掃描儀中閱讀句子,逐字呈現。大腦的反應從接收單詞開始,首先激活初級視覺皮層,然后通過背側(dorsal)和腹側(ventral)視覺通路迅速傳播。接下來,大腦運動皮層也會被激活。大約400毫秒后,這種信號的激活會擴展到大腦的語言網絡(如顳葉和額葉),最終逐漸減弱。
對于每個時間點,研究者通過將語言模型與大腦的激活模式進行比較。研究者發現,在最初的100毫秒內,大腦的初級視覺皮層激活模式與語言模型視覺嵌入(visual embedding)層的特征相似,視覺嵌入層是語言模型中用于識別圖像特征的層。而在大約200毫秒時,大腦的激活模式不僅與視覺嵌入層相關,還開始與詞嵌入(word embedding)層模式相匹配,詞嵌入層用于捕捉詞匯語義。
研究發現,隨著時間的推移,大腦的語言處理模式逐漸擴展到大腦的左半球,并在約400毫秒時,開始與單詞的語義產生強烈的相關性。這一現象是符合先前語言學研究的,這表明大腦在這個時間點開始理解單詞的具體意義。隨著時間繼續推移,語言模型的激活模式與大腦的反應開始有顯著的相似性。這意味著,在大腦完成初步的語言處理后,之后的激活模式與語言模型的激活方式非常相似,特別是在單詞呈現后的2秒內。
?圖7:大腦在處理語言信息時的時序性和空間激活模式
這項研究的核心意義在于,利用磁腦圖(MEG)和功能性磁共振成像(fMRI)技術,結合語言模型,揭示了大腦如何處理語言的層次結構和時間序列過程。更重要的是,它表明盡管深度神經網絡和大腦的工作原理有所不同,但兩者在處理語言信息時表現出了相似的層次結構和時間演化。
(3)計算原則的共振
2022年戈爾德斯坦(Goldstein)等人通過皮層電圖(ECoG)記錄了9名參與者聽取一個30分鐘的播客時的大腦活動。通過對這些大腦反應的分析,研究者提供了實證證據,證明人腦和模型在處理相同的自然語言敘事時共享三種基本的計算原則[5]:
下一個單詞預測:不論是人腦還是自回歸深層語言模型(DLM),都會在單詞開始之前,基于當前上下文連續地進行下一個單詞的預測。即,人腦和模型都會利用前文的語境來預判接下來可能出現的詞匯或語句結構。
預測與實際單詞的匹配:一旦新的單詞出現,無論是大腦還是DLM模型都會根據先前的預測與實際輸入的單詞進行匹配,從而計算出預測錯誤或意外帶來的“驚訝”(Surprise),也就是對預測偏差的感知與調整。
上下文嵌入:無論是在神經處理還是在DLM模型中,語言的理解都依賴于上下文嵌入(Context Embeddings)。這意味著,理解一個單詞的意義需要考慮其所處的語境,DLM通過上下文信息來增強對單詞的理解,而人腦則通過類似的認知機制來處理自然語言中的詞匯。
這項研究的另一個意義在于,語言模型可以為研究語言的神經基礎提供一種新的生物學上可行的計算框架。通過這一框架,學者們能夠更深入地探討大腦如何處理語言以及如何模擬這種處理過程。
語言處理相似性背后的影響因素
盡管上面這些研究揭示了語言模型與大腦之間的相似性,但這些發現并沒有解釋語言處理相似性背后的動力以及這種相似性的影響因素。這些問題仍在不斷深入和探索中。
為了更深入的研究語言模型和大腦語言處理的相似性,Mischler等人使用了12個流行的開源大語言模型,每個模型大約有七十億個參數和32層網絡結構。研究團隊通過侵入性電極(iEEG)記錄了八位神經外科患者的神經反應,在模型表征和大腦神經反應之間進行嶺回歸建模,從而預測大腦反應,并用交叉驗證的平均預測相關性作為大腦與每個電極之間的相似度[6]。
研究結果初步揭示了大語言模型性能、模型內部表征和神經預測準確性之間的復雜關系:
研究發現語言模型在語言任務上的表現越好,它們預測大腦神經反應的準確性就越高,尤其是在大腦處理語言的聽覺皮層(負責聽覺和語言的區域)。表現更好的大語言模型展現了更加類似大腦的層次化結構。這表明,語言處理不僅僅是在最終的輸出層進行的,而是通過一系列的層次進行信息的逐步提取和整合。大腦的語言區域也有類似的層次化結構,從基礎的語音特征到復雜的語法、句子結構,都通過層級組織逐步加工。大語言模型和大腦之間的這種結構上的相似性,可能說明了語言處理的層次化本質。
性能更好的語言模型在模型的早期層級表現出更強的預測準確性,而性能較差的模型則需要更深的層級才能達到相似的大腦預測準確性。這意味著,好的語言模型在較早的層次就能更有效地處理語言信息,而不需要依賴后續復雜的層級處理。
上下文信息在語言模型和大腦的語言處理上都起著關鍵作用。研究表明,模型能否有效地使用更長的上下文窗口(即考慮更多的前后語境信息)是決定模型表現好壞的關鍵。擁有更長上下文信息的模型,能夠更接近大腦的語言處理方式。
?圖8:語言模型性能與大腦相似性和層級關系
大語言模型和人類語言處理之間的趨同可能意味著,語言處理的某些基本原則在人工和生物系統中是共通的。人類大腦的語言能力是為了應對復雜的溝通需求而進化的,優化了效率和多功能性。而語言模型在架構和處理策略上逐漸趨向這些相同的原則,模仿大腦為了語言處理所進行的進化適應。
盡管大語言模型的訓練并沒有考慮到與大腦的相似性,但這些模型在特征提取和層次化處理上逐漸變得更像大腦。大腦的語言處理方式可能是進化過程中為語言建模找到的一種最優解決方案,盡管它受到生物學的限制。大語言模型訓練雖然主要聚焦于性能優化,但這一優化過程使得模型在特征提取和層次處理上逐步向大腦靠近。這表明,盡管大語言模型沒有被設計成模仿大腦,但它們在語言處理策略上也在趨同于大腦的方式。
AI與人類語言系統的差異性
我們可以使用由動物行為學領域發展出來的框架來理解人類語言與AI之間的差異。該框架提出了四個關鍵問題:它是如何進化的?它是如何發展的?它的機制是什么?它的功能是什么?這些問題最早由動物行為學家尼克拉斯·廷伯根(Niklas Tinbergen)提出,受生物學和傳統哲學的深刻影響[7]。
進化之異
由于人類語言是在漫長的進化過程中,通過自然選擇逐步適應生物學和社會需求的產物,具有深厚的生物學背景、認知能力以及社會互動的基礎。而語言模型作為一種由人工智能推動的技術系統,它的“進化”是在高度控制和限定的環境中進行的。雖然語言模型能夠模擬語言生成的某些功能,但它們并未經歷語言的生物學起源、社會交互的演變,也沒有適應復雜的環境和文化需求。因此,語言模型與人類語言之間有著本質的隔閡。
自然選擇 vs 人工選擇:人類語言的進化是經過數代人群的自然選擇和文化傳承的,而語言模型的“進化”完全依賴于人工選擇,且其目的是為了解決特定的技術任務,如文本生成、語言翻譯等,而非適應生物環境或社會互動。
生物學基礎 vs 算法架構:人類語言的基礎是生物學的,大腦的神經網絡、感官輸入和社會交互共同塑造了語言的學習和使用。而語言模型則是通過數學模型、算法優化和海量數據的訓練來模仿語言的某些功能。兩者雖然在表面上看似有相似性(例如都可以生成語言),但其本質卻是截然不同的。
發展之別
在人類語言學習與語言模型的學習過程中,存在著根本性的差異,尤其是在學習的輸入信息、學習方式、學習規律上。人類語言學習是一個動態、復雜和高度互動的過程,涉及到多種感官輸入、社交互動及個人經驗的積累。而語言模型的學習方式則是數據驅動的,基于大量文本數據進行訓練,缺乏社會互動和認知發展。
在輸入信息方面,人類語言學習不僅僅依賴于文字的輸入,還通過語音、面部表情、手勢、語氣、語調等多維信息來理解語言。相對而言,語言模型的學習則局限于處理純文本數據,例如新聞文章、書籍、對話記錄或社交媒體帖子。這些數據通常缺乏對情感、意圖和語境的直接感知,使得語言模型只能在文本層面理解語言的表面形式。由于沒有多模態信息的輸入,語言模型缺乏對語氣、手勢等非語言線索的感知,導致它們在理解復雜情感或社會互動中存在明顯的局限性。
在學習方式方面,人類語言學習的關鍵特征之一是其高度的社會化和互動性。兒童在語言學習過程中,與父母、同伴、老師等進行大量的互動。在這種互動中,成人不僅提供語言輸入,還對兒童的語言輸出進行反饋、修正與鼓勵。與人類的互動性學習不同,語言模型的學習過程完全依賴于大規模的文本數據,通過對大量文本樣本的統計分析,學習詞匯、語法規則、句法結構等語言規律。算法根據輸入的數據不斷調整和優化模型參數,從而使得語言模型能夠生成符合語言規范的文本。
在學習規律方面,語言的學習并不是直線前進的,理解和表達之間的反饋是交替的,往往是非線性發展。對于某些語言特性,孩子可能會理解但不能流利表達,或者能夠表達但不完全理解。這種非線性的學習過程賦予了語言學習高度的靈活性和適應性,使其能夠適應不斷變化的社會和認知環境。語言模型的發展過程相比之下要簡化得多。語言模型的學習是一個固定的過程,它不會在不同的情境中調整或優化自己生成文本的方式,其語言能力在訓練完成后不會隨著時間和環境的變化而顯著變化。
機制之差
人類和大語言模型學習語言最重要的差異在于預測過程是否具有動態性和適應性。人類的語言能力是一種動態的、高度適應性的過程,神經系統具有神經可塑性,即神經元和突觸能夠根據外部環境的變化而進行調整。在語言學習中,大腦的神經網絡會不斷地根據接收到的信息進行自我調整和優化,逐步形成對語言的復雜理解。而語言模型輸入和輸出之間的關系是靜態的,在訓練完成后,不會像大腦一樣在新的學習情境下進行自主調整。
人類的語言理解和輸出不僅依賴于語法和詞匯的組合,還深深嵌入于情境感知、情感狀態和社交互動中。語言理解和輸出的過程中,大腦會獲得關于語境、情感和社會規范的豐富信息。這些信息通過聯合注意力(joint attention)等機制,被整合到大腦的語言處理系統中,形成對語言的深層次理解。而語言模型的語言理解和輸出過程是通過從大量文本數據中尋找模式來實現的,而不是基于對實際世界的感知。
功能之辨
盡管語言模型和人類語言系統在處理信息時表現出了相似的層次結構和時間演化,但它們在功能上仍存在深刻的差異。這些差異主要體現在語義理解、組合推理能力、靈活性以及創造力等方面。
根據皮爾斯和索緒爾等符號學理論,語言的意義不僅僅來自符號的排列,還來自符號與其指代對象之間的關系。人類通過感知世界、體驗情感和社會互動來理解這些符號背后的深層含義。例如,人類通過感官和社會化學習理解“家”這個詞不僅僅是文字組合,還涉及情感、家庭關系和文化背景。然而,語言模型接觸不到這些符號所指代的現實世界,只能處理符號的形式。因此,語言模型的語言生成并不意味著對其含義的深刻理解,它只是從大量的文本數據中學習到這些符號的統計關系。
人類語言的功能不僅僅是生成和理解單一語句,它還包含了對信息的組合推理能力。人類能夠將不同的語言元素、知識和經驗進行復雜的組合,進行推理、假設和預測。人類語言使用者可以將不同的信息進行組合,并從中進行邏輯推理。例如,人類可以通過推理來理解隱含的意思、推測因果關系以及判斷語言中的多義性;也能夠理解并利用語境推理、常識推理和假設推理,將不同的語言元素組合成具有深層次意義的表達。盡管語言模型在某些任務中表現出類似的推理能力(如基于上下文生成合理的答案),但它們的推理過程并非真正的邏輯推理,而是基于模式匹配和統計關系的概率推理。但是當需要進行復雜的因果推理或是組合推理時,語言模型往往容易犯錯或輸出不合邏輯的回答[10]。
創造力和靈活性是人類語言的重要特征。人類能夠根據新的情境和需求創造出全新的語言表達,進行有創意的言語活動。這種能力不僅僅體現在日常交流中,還體現在文學創作、詩歌、諷刺、幽默等復雜語言形式中。這些語言形式往往依賴于對文化背景、情境的深刻理解和對語言規則的創新性運用。語言模型雖然可以生成創新的文本,模仿某些創作風格,但其創造力本質上是基于已有的數據模式和訓練樣本。它并不具備像人類那樣的“靈感”或對未知情境的創新能力。語言模型的“創造性”是在大量已有數據中找到最可能的組合,并生成符合這些組合的內容,因此,它的“創作”是基于過去的數據經驗,而不是基于獨立的思考和創新。
AI與人類語言系統的雙向賦能
AI模型能作為人類的模型生物嗎?
視覺領域已有一些有效的動物模型(如貓的視覺皮層),這些模型幫助科學家理解了人類視覺的處理方式。然而,語言領域并不存在類似的動物模型,因為沒有動物具備像人類一樣的復雜語言能力。因此,是否可以將語言模型作為模擬人類語言處理的“模型生物”?
為了回答這個問題,必須驗證幾個條件。第一個條件是這些系統是否能夠展現出類似人類的行為,幸運的是,已有大量的研究表明,語言模型在很多任務上展現出的行為與人類行為具有顯著相似性。第二個條件是,語言模型的表現和大腦的神經活動是否存在相似性,這一點也有很多支持的證據。
盡管已有研究表明,語言模型能夠在某些設置中展現類似人類的行為,并且它的語言表示可以很好地預測大腦的活動,但這些相似性并不是在所有情況下都成立。不同的實驗設置和環境條件可能會導致語言模型和大腦之間的相似性或差異。因此,研究者面臨幾個問題:首先,什么樣的設置會導致語言模型與大腦之間的“收斂”或“發散”?一些研究說明,模型的性能是二者相似性收斂程度的一個關鍵因素,這可以為AI模擬人腦神經反應和行為提供指導。那么,是否有其他的因素也會影響這種收斂性?這仍然是一個開放性的問題。
其次,如何更好地理解和解釋這些模型與大腦語言處理的對齊?針對這個問題,可能有兩個解決方向,第一條方向是發展更優的、可解釋的策略,以便更好地估算和理解語言模型與大腦神經活動之間的對齊關系,也就是了解為什么模型能夠成功預測大腦活動,以及這種預測是基于哪些特征和信息;第二條方向是通過改進AI模型,使其與大腦的對齊更加精準[9]。
大腦如何啟發AI的推理能力?
AI的推理主要依賴于對大量數據的學習,但面對復雜或模糊的情境時,推理能力的提升依然是一個挑戰。神經科學的研究,尤其是關于大腦如何進行推理的研究,能否給AI推理機制一些啟示?Ding等人梳理了人類大腦的推理機制,總結如下[8]:
(1)大腦的雙重過程理論與兩種思維方式
雙重過程理論由認知心理學家埃文斯(Evans)提出,認為人類大腦在處理信息時有兩種主要的思維方式:直覺和分析。這兩種方式分別對應著無意識的、自動化的直覺思維和顯式的、有意識的分析思維。
直覺推理是快速且自動化的思維過程,往往依賴于個人的情感和經驗,產生的判斷結果較為直觀,且不一定依賴于邏輯規則。它通常在不需要嚴格分析的情況下作出決策,更多基于經驗和感知。分析推理是較為緩慢和規范的思維方式,依賴于后天學習,按邏輯和規則逐步推導出結論。分析推理可以分為歸納推理和演繹推理,其中歸納推理是從已知的具體實例推導出一般性的結論,演繹推理則是從一般性原理推導出特定結論。
在神經學層面,研究發現,歸納推理更容易受到直覺影響,而演繹推理則更多依賴分析系統。與內容無關的推理通常由左半球主導,而與內容相關的推理則涉及右半球及雙側額葉區域。
(2)大腦認知地圖與直覺推理
大腦通過建立認知地圖,來理解空間和環境的關系。認知地圖不僅僅是物理空間的表征,更包括時間、事件順序和事物間的關系。直覺推理正是在這種認知地圖的支持下進行的,直覺推理依賴于對過去經驗的總結,能迅速地評估環境并作出決策。認知地圖能幫助大腦在復雜的情境中作出快速反應,包括評估風險、判斷價值,并進行決策。這種決策過程并非完全依賴于邏輯推理,而是基于經驗的積累和內在心理因素(如情緒和態度)的影響。
雖然大腦推理機制的研究仍在不斷深入和探索中,但它也許可以為改進AI模型提供一些啟發和可能的方向。比如,借鑒大腦的雙重過程理論,AI可以結合直覺推理和分析推理的特點,迅速生成初步決策并逐步細化和驗證,從而在復雜決策任務中實現效率與準確性的平衡。此外,借鑒人類大腦的認知地圖,AI可以嘗試構建知識圖譜、情境模型或環境模擬,增強對空間關系、時間順序和因果關系的理解,提高模型對現實世界的適應能力。與此同時,AI還可以通過多模態信息整合,融合來自不同感官或數據源的信息,提升推理的全面性和準確性。
最后,提升推理的可解釋性也是AI模型的重要任務之一,尤其是在復雜決策任務中,通過優化算法和提高透明度,AI可以提供更清晰的推理過程,幫助用戶理解決策依據,從而增強用戶對模型的信任。
1、Aher, G. V., Arriaga, R. I., & Kalai, A. T. (2023, July). Using large language models to simulate multiple humans and replicate human subject studies. In International Conference on Machine Learning (pp. 337-371). PMLR.
2、Millet, J., Caucheteux, C., Boubenec, Y., Gramfort, A., Dunbar, E., Pallier, C., & King, J. R. (2022). Toward a realistic model of speech processing in the brain with self-supervised learning. Advances in Neural Information Processing Systems, 35, 33428-33443.
3、LLMs and Human Language Processing,https://www.youtube.com/watch?v=UyJx2Ejr-q0&t=4556s
4、Caucheteux, C., & King, J. R. (2022). Brains and algorithms partially converge in natural language processing. Communications biology, 5(1), 134.
5、Goldstein, A., Zada, Z., Buchnik, E., Schain, M., Price, A., Aubrey, B., ... & Hasson, U. (2022). Shared computational principles for language processing in humans and deep language models. Nature neuroscience, 25(3), 369-380.
6、Mischler, G., Li, Y. A., Bickel, S., Mehta, A. D., & Mesgarani, N. (2024). Contextual feature extraction hierarchies converge in large language models and the brain. Nature Machine Intelligence, 1-11.
7、Cuskley, C., Woods, R., & Flaherty, M. (2024). The limitations of large language models for understanding human language and cognition. Open Mind, 8, 1058-1083.
8、丁夢遠, 蘭旭光, 彭茹, 鄭南寧. 機器推理的進展與展望. 模式識別與人工智能, ,34(1): 1-13
9、LLMs and Human Language Processing,https://www.youtube.com/watch?v=UyJx2Ejr-q0&t=4556s
10、Xu, Z., Shi, Z., & Liang, Y. (2024). Do large language models have compositional ability? an investigation into limitations and scalability. In ICLR 2024 Workshop on Mathematical and Empirical Understanding of Foundation Models.
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。如果您有進一步想要討論的內容,歡迎評論區留言,或添加小助手微信questionlab,加入社群與我們互動。
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.