A Review of Findings from Neuroscience and Cognitive Psychology as Possible Inspiration for the Path to Artificial General Intelligence
神經科學和認知心理學的發現回顧:作為通往人工通用智能之路的可能啟示
https://arxiv.org/abs/2401.10904
以下10.3章開始
17.討論:AGI系統面臨的挑戰
17.1.雙過程理論
在我們討論通用人工智能(AGI)所需的能力時,我們將簡要介紹認知心理學中的雙過程理論。這一理論區分了類型1和類型2系統,每種都以不同的信息處理和決策方式為特征。
類型1系統通常被稱為“直覺”或“自動”。它們的特點是快速、不費力地處理信息,通常用于需要迅速決策的情況。這些系統在很大程度上依賴過去的經驗,不需要太多的有意識的努力或注意力。例如,一位經驗豐富的司機在熟悉的路線上駕駛就是一種類型1系統的應用。一旦司機對路線了如指掌,他/她就能在不太需要有意識努力或注意力的情況下駕駛。然而,如果司機遇到新的和不熟悉的情況,比如在外國駕駛,類型1的決策就不再可能。
另一方面,類型2系統通常被稱為“理性”或“深思熟慮”。它們的特點是更慢、更費力的信息處理方式,通常用于需要仔細考慮和決策的情況。這些系統依賴于有意識的思考和注意力,并且比類型1系統更準確、更靈活。例如,解決一個復雜的數學問題就需要類型2系統。這項任務需要仔細考慮,并且大量依賴于有意識的努力和注意力。解題者必須仔細分析問題,考慮不同的策略,并選擇最佳解決方案。這類任務不能使用類型1系統來完成。
類型1過程通常被認為生成默認響應,它們快速且并行運作,不依賴于工作記憶。它們無意識地運作,具有聯想性質,類似于在動物中觀察到的認知過程。相比之下,類型2系統依賴于工作記憶的使用,并可能涉及心理模擬以估計行為的后果。這些過程運作緩慢,并且以串行方式進行,具有有限的處理能力。它們利用顯性知識,例如基于規則的機制。值得注意的是,類型2過程是人類認知的特征。
盡管雙過程理論為理解個體如何處理信息和做出決策提供了見解,但也存在一些批評意見,Evans & Stanovich (2013)中討論了幾種這樣的案例。例如,一個常見的批評是圍繞兩個系統分配的多種且有時模糊的定義。此外,一些學者認為二元分類過度簡化了人類認知的復雜性,他們認為存在一個處理風格的連續體,而不是兩種截然不同的類型。
當前的深度學習系統屬于類型1。盡管它們可以解決復雜問題,但如前所述,它們偶爾犯的錯誤凸顯了它們在類型2能力上的不足。一個例子是圖像識別模型的對抗性樣本的生成。這些樣本在輸入數據中進行微小、幾乎不可察覺的更改,導致模型輸出的大幅變化。在極端情況下,即使人類眼睛無法察覺的單像素修改,也可能導致神經網絡將物體完全錯誤地分類。例如,一只鹿可能被錯誤地分類為飛機,一個嬰兒搖籃可能被錯誤地分類為紙巾。這種對抗性攻擊在關鍵應用中引起了重大關注,比如在自動駕駛汽車中,那里的照明條件的輕微變化可能導致事故。
盡管深度學習取得了不可否認的成功,但人們自己在日常行動中也常常本能地、無需深思熟慮地執行許多操作。他們經常依賴簡單的規則來應對不熟悉的情況。使用經典邏輯不一定是自然的;它必須通過有意識的努力來學習和應用。
一個簡單的例子是,在存在復雜前提或處理包括不尋常否定的簡單邏輯規則時,得出合理結論的困難(Evans & Handley, 1999)。因此,使用否定前件的演繹法,如:“如果字母不是B,那么數字是7。數字不是7。因此,字母是B”,比使用肯定前件的演繹法,如:“如果字母是B,那么數字是7。數字不是7。因此,字母不是B”,要困難。
同樣的局限性也出現在諸如Wason選擇測試(Wason, 1968)之類的測試中,該測試調查了演繹推理和條件推理能力。參與者面前有一組四張卡片,每張卡片的一面包含信息。這些卡片通常一面有字母,另一面有數字。參與者的任務是確定他們需要翻哪張或哪些卡片,以判斷特定的條件規則(通常格式為“如果P,則Q”)是真是假。這個測試旨在揭示條件推理的反直覺性質,因為參與者在嘗試確定要翻的正確的卡片時往往會犯系統性錯誤。例如,給定卡片:A D 3 7,和規則“如果卡片的一面是A,那么另一面是3”,只有大約10%的參與者選擇A和7(P和非Q),而許多人只選擇A(P),或者A和3(P和Q)(Evans, Newstead & Byrne, 1993)。
通過反事實推理識別復雜的因果關系也不是一件簡單的事情。例如,在第二次世界大戰期間,英國皇家空軍希望保護他們的戰斗機免受德國高射炮火的攻擊。挑戰在于確定飛機上裝甲的最佳位置。基于返回飛機各部位彈孔數量的初步評估表明,應該在受損最嚴重的區域增加裝甲。然而,一位有洞察力的數學家提供了不同的視角:他指出沒有彈孔的區域實際上是脆弱點,因為那些被擊中的地方的飛機從未返回基地。因此,裝甲應該被放置在沒有彈孔的區域,即引擎上(Ellenberg, 2015)。
目前有幾種嘗試將主要是神經類型1的系統與推理類型2的系統結合起來,形成混合的神經符號系統。雖然有許多有趣的論文討論這個方向,但這個方向仍處于早期階段。如前所述,推理組件可能不必然遵循數學邏輯的原則,而可能采用特定的人類認知機制。
這些能力的整合為人工智能/通用人工智能利用兩種方法的優勢提供了可能性,除了從現有數據中學習外,還提供了有意義的分析的可能性。這種結合有可能推動該領域的創新進步,并可能使我們更接近奇點,即機器超越人類智能的點。
17.2. Jackendoff的挑戰
Ray Jackendoff(2002)為認知神經科學確定了四個挑戰。它們是在語言處理的背景下提出的,但如果目標是設計表現出通用人工智能(AGI)的系統,它們也需要從一般意義上得到解決。
第一個是綁定問題,在第13節中討論過。一些提議表明,神經放電同步(編碼相關特征的神經元同時放電)可能解決這個問題。然而,當應用于像句子這樣的語言結構時,由于多個元素之間的復雜相互聯系,挑戰變得更加深刻。
第二個挑戰是2的問題,或者表示多個對象的問題。當句子中出現相同的單詞或需要處理相同類型的實體時,就會出現這個問題。例如,在句子“The little star is beside a big star”中,不清楚單詞“star”的神經激活如何區分它的兩次出現。一個可能的解決方案是為每個潛在實體在記憶中復制單元,但當應用于更大的上下文或帶有大型詞匯量的句子時,會遇到可擴展性問題。另一種解決方案表明,工作記憶包含作為長期記憶指針的“虛擬”節點,并編碼被指向項目之間的關系,通過時間同步綁定。然而,仍然存在關于這些提議的神經合理性以及時間同步在這種情況下的充分性的問題。
第三個挑戰,變量問題,解決了使用現有的神經激活模型有效地處理關系和語言規則時編碼類型化變量的限制。即使是像兩個單詞押韻這樣簡單的關系,也會導致在編碼它們的關系時遇到困難。大腦不能列出所有可能的押韻;此外,人們即使在外語中也有在沒有顯式學習的情況下識別押韻的能力。基于現有押韻的類比和推理不會有效地擴展到新單詞。相反,押韻必須被編碼為具有變量的模式:“任何音韻字符串如果從重音元音到結尾在兩個字符串中是相同的,并且重音元音之前的起始部分是不同的,那么它就和其他任何音韻字符串押韻”。
第四個挑戰與工作記憶與長期記憶的綁定有關。在語言結構處理的記憶中,瞬時(STM)和持久(LTM)連接之間存在差異。人們認為短期連接與擴散激活或放電同步有關,而長期連接通常歸因于突觸連接的強度。然而,語言的組合性質帶來了困難,因為瞬時和持久的連接可能編碼相同類型的關系。例如,成語如“kick the bucket”(暗指死亡)需要存儲在LTM中,因為它們有非字面意義,但它們具有與組合構建的短語(如“lift the shovel”)相似的句法結構。在語言處理期間檢索時,兩種結構都預期在大腦負責句法的區域有類似的實例化,這挑戰了一種假設,即一種通過突觸權重編碼,另一種通過放電同步編碼。STM到結構化LTM的轉移,特別是在情景記憶中,給問題帶來了額外的困難,因為在這種情況下,重要的元素似乎在僅發生一次后立即存儲,而不是通過突觸效能的逐漸加強。此外,神經編碼的信息不能像計算機系統那樣直接轉移到另一個記憶區域。
盡管這是Jackendoff挑戰之一,但我們應該在這里提到,通常接受的所謂“記憶鞏固”理論是,STM事件主要存儲在海馬體中,然后在非快速眼動睡眠期間重放它們,以便向新皮層發送激活波,逐漸加強皮層聯合,確保長期存儲。然而,一次事件之后被記住一輩子的案例是否容易用這一理論解釋,尚不清楚。有研究提出至少對理論的一些細節提供替代解釋,因此我們可以說,從STM到LTM的確切轉移機制尚未完全闡明。
以這樣或那樣的形式,前幾節介紹的一些方法已被證明能夠解決一個或多個這些挑戰。盡管如此,人們仍需要找到一個統一的認知模型,能夠一致地解決所有這些挑戰。
17.3. 穩定性-可塑性困境
穩定性-可塑性困境是神經科學和認知科學中的一個核心問題,它涉及到大腦如何在維持穩定性和適應性之間保持平衡。大腦需要保持足夠的穩定性來存儲和回憶信息,同時又需要足夠的可塑性來學習新知識、適應新環境和形成新的記憶。這種平衡是至關重要的,因為過多的穩定性可能導致難以學習新事物,而過多的可塑性可能導致記憶和信息處理的不穩定。這個困境對于設計能夠模擬人類認知和學習能力的AGI系統來說是一個重要的考慮因素。
穩定性-可塑性困境指的是大腦中兩種基本過程之間的平衡:穩定性和可塑性。穩定性指的是保留已建立的神經連接以及對新信息或經驗變化的抵抗力。穩定的神經回路對于維持長期記憶、熟練掌握的技能和一致的認知功能至關重要。另一方面,可塑性是大腦改變和適應的能力。它涉及形成新的神經連接、加強或減弱現有連接,以及獲取新的信息和技能。可塑性對于學習、記憶形成和從腦損傷中恢復至關重要。
過分強調穩定性可能會阻礙學習和適應,使得獲取新知識或適應變化的環境變得具有挑戰性。反之,過多的可塑性可能導致不穩定,造成重要信息的喪失和擾亂已建立的認知功能。在穩定性和可塑性之間找到正確的平衡對于大腦的最佳功能至關重要,涉及到允許大腦鞏固重要信息的同時,保持足夠的靈活性以融入新的學習經驗的機制。
細胞組裝方法(第6節和第7節)和ART模型(第15.1節)等技術,就是嘗試解決這一挑戰的方法。這些方法試圖在保持認知一致性和適應性的同時,處理信息的穩定性和大腦的可塑性。通過這些機制,可以更好地理解大腦如何處理記憶、學習以及如何從損傷中恢復,這對于開發能夠模擬人類認知和學習能力的通用人工智能系統具有重要意義。
17.4. 符號接地問題
符號接地問題(Harnad, 1990)是人工智能和認知科學中的另一個基本挑戰。它涉及如何將符號——計算和通信中使用的抽象表示——與現實世界連接或“接地”,使它們能夠攜帶人類可以理解的含義。在AI中,符號通常用來表示概念、對象、動作或思想。例如,自然語言中的單詞是代表現實世界實體的符號。然而,符號本身缺乏固有的含義。它們是任意的,并且它們的意義來自于它們在特定系統或上下文中的使用方式。要真正有意義,符號需要與現實世界連接,它們指代特定的對象、品質或動作。這種連接使個體能夠基于他們與物理環境的經驗和互動來理解和操作符號。另一方面,像神經網絡這樣的連接主義方法不依賴于人工設計符號和規則。相反,它們可以從原始來源,如感覺數據中學習它們的表示。通過這種方式,神經網絡可以克服符號AI特有的問題,例如在處理不一致或噪聲時的脆弱性,以及大量的人類工程努力。神經網絡學習到的表示在它們的輸入數據中是接地的,與完全依賴于人類解釋以連接現實世界概念的符號不同(Greff, van Steenkiste & Schmidhuber, 2020)。
18. 結論
到目前為止,我們已經涵蓋了許多概念。與專注于特定子領域的“水平”綜述不同,這篇綜述采用了“垂直”方法。它旨在提供選定概念的全景視圖,從低層次到高層次。同樣重要的是承認,這不是窮盡的,關于每個主題還有其他有價值的貢獻。所選作品是被認為對AI受眾感興趣的那些。
內容不是最初以自上而下的方式設計,而是以自下而上的方式逐漸積累,然后進行結構化,因為它總結了作者對神經符號方法的探索。這次探索的一個令人驚訝的發現是,盡管正在進行積極的研究,但支配大腦過程的基本認知機制仍然有點難以捉摸。各種模型試圖闡明特定的機制,可以被視為一個仍需解決的更大謎題的各個部分。
這些概念可以作為構建智能計算系統的基石,這些系統能夠處理信息、從經驗中學習,并以類似人類的適應性和多功能性執行任務,彌合人類認知和人工(通用)智能之間的差距。
1. Introduction
2. The Biological Neuron
- 2.1. The Structure of the Neuron
- 2.2. The Structure of the Chemical Synapse
- 2.3. The Formation of the Action Potential
- 2.4. Excitation and Inhibition
- 2.5. The Complexity of the Brain
3. Neuron Models
- 3.1. Hodgkin-Huxley Model
- 3.2. Izhikevich Model
- 3.3. Integrate and Fire (IF) and Leaky Integrate and Fire (LIF) Neurons
- 3.4. Spike Frequency Adaptation
- 3.5. The Compartmental Neuron
4. Spiking Neural Networks
- 4.1. Neural Coding
- 4.1.1. Rate Coding
- 4.1.2. Temporal Coding
- 4.1.3. Burst Coding
- 4.1.4. Comparison
- 4.2. The Computational Power of SNNs
- 4.3. Discussion
5. Learning Rules
- 5.1. Hebbian Learning
- 5.2. Extensions of Hebb’s Rule
- 5.2.1. Oja’s Rule
- 5.2.2. Sanger’s Rule
- 5.2.3. The ABCD Rule
- 5.2.4. BCM Rule
- 5.3. Spike-Timing Dependent Plasticity
- 5.4. Other Learning Algorithms
6. Neuronal Ensembles (Cell Assemblies)
7. Cell Assembly Models
8. Dynamic Models
- 8.1. Wilson-Cowan Model
- 8.2. Reservoir Computing
- 8.2.1. Echo State Networks
- 8.2.2. Liquid State Machines
- 8.2.3. Other Issues and Models
- 8.3. Attractor-Based Models and Other Dynamic Models of the Brain
9. Brain Anatomy
- 9.1. The General Structure of the Brain
- 9.2. The Cortical Lobes
- 9.3. The Visual Cortex
- 9.4. The Function of the Cortical Layers
- 9.5. The Language Areas
- 9.6. The Memory Areas
- 9.7. Grid Cells and Place Cells
- 9.8. The Decision-Making Areas
- 9.9. The Homogeneous Cortical Columns
10. Neuroscience Models
- 10.1. Hierarchical Temporal Memory
- 10.1.1. The HTM Neuron Model
- 10.1.2. Spatial Pooling Algorithm
- 10.1.3. Temporal Memory Algorithm
- 10.2. “A Thousand Brains” Theory
- 10.3. Other Models
11. Representations in the Brain
- 11.1. Numbers
- 11.2. Decisions
- 11.3. Actions
12. Vector Symbolic Architectures (Hyperdimensional Computing)
- 12.1. Fundamental Operations
- 12.2. Representation Methods
- 12.2.1. Tensor Product Representation
- 12.2.2. Holographic Reduced Representation
- 12.2.3. Other Representations
- 12.3. Analogical Reasoning
- 12.4. Representing Compositional Structures
- 12.4.1. Representing Symbols
- 12.4.2. Representing Numeric Values
- 12.4.3. Representing Sequences
- 12.4.4. Representing Graphs
13. The Neural Binding Problem
- 13.1. Variants of the Neural Binding Problem
- 13.2. Variable Binding
14. Cognitive Models
- 14.1. Global Workspace Theory
- 14.2. Conceptual Spaces
15. Categorization Models
- 15.1. Adaptive Resonance Theory (ART)
- 15.2. The Generalized Context Model (GCM)
- 15.3. ALCOVE
- 15.4. RULEX
- 15.5. ATRIUM
- 15.6. COVIS
- 15.7. SUSTAIN
16. Cognitive Architectures
- 16.1. ACT-R
- 16.1.1. General Architecture
- 16.1.2. Decision Making
- 16.1.3. Learning
- 16.2. SOAR
- 16.2.1. The Problem-Space Computational Model
- 16.2.2. General Architecture
- 16.2.3. The Spatial-Visual System
- 16.2.4. Working Memory
- 16.2.5. Semantic Memory
- 16.2.6. Episodic Memory
- 16.2.7. Producing Deliberate Behavior
- 16.2.8. Impasses
- 16.2.9. Chunking
- 16.2.10. Reinforcement Learning
- 16.3. The Standard Model of the Mind
- 16.4. Semantic Pointer Architecture
- 16.4.1. Using a VSA for Representation
- 16.4.2. The Structure of SPA
- 16.4.3. SPAUN
- 16.5. NEF (Neural Engineering Framework)
- 16.5.1. Representation
- 16.5.2. Transformations
- 16.5.3. Dynamics
- 16.6. NENGO (Neural Engineering Object)
17. Discussion: Challenges for AGI Systems
- 17.1. Dual-Process Theory
- 17.2. Jackendoff’s Challenges
- 17.3. Stability-Plasticity Dilemma
- 17.4. Symbol Grounding Problem
18. Conclusions
Abbreviations
References
(上篇5萬字,下篇4.6萬字)
10.3. 其他模型
(Pischedda等人,2017年)研究了人腦如何在各種認知任務中表示和組織使用的規則。一些理論認為大腦在前額葉皮層的不同層級編碼規則,這項研究旨在澄清不同層級的規則是否真的在不同的大腦區域中表示。該研究依賴功能性磁共振成像(fMRI)來檢查低層級和高層級規則在大腦中的編碼是否不同。參與者的任務是應用包含低層級刺激-反應規則和高層級選擇規則的規則集。
研究結果揭示了在編碼不同層級規則的大腦區域之間沒有顯著差異。與一些理論預期相反,這些規則似乎以類似的方式被表示。包含低層級和高層級規則的層級規則,在空間上沒有根據它們在層級中的位置顯著區分。這意味著無論規則是基本的低層級規則(處理基本感官刺激和反應)還是高層級規則(涉及更抽象的認知過程,如決策制定和任務選擇),這兩種類型的規則都由相同的大腦區域網絡處理。
雖然網格細胞可以有效表示二維變量,但它們能否表示更高維度變量的問題隨之而來。(Klukas, Lewis & Fiete, 2020年)提出的模型展示了它們如何有效編碼大于二維的變量,同時保持低維結構。它通過低維隨機投影和傳統的六邊形網格細胞響應的結合來實現這一點。
網格細胞以其在表示空間信息方面的作用而聞名,但最近的研究表明,它們也可以表示超出空間位置的各種認知變量。在飛行的蝙蝠或攀爬的老鼠等動物中觀察到的放電場可以由結合多個網格模塊活動的神經元生成。在三維環境中的網格細胞響應可能不會顯示出規則的三維網格模式,但它們確實似乎允許在所有三個維度上進行定位。這種定位可能受到空間地標的影響,或由編碼更高維空間的網格細胞的組合形成。
這表明網格細胞可以實現一種通用電路,能夠為高維變量生成編碼和記憶狀態。作者提出了一種針對高維變量的編碼方案,考慮到網格細胞響應的結構和動態約束。他們假設每個網格模塊的活動保持在神經狀態空間中的二維環形吸引子內。模塊化編碼,即將神經元劃分為不同的組以編碼變量的不同方面,為表示高維變量提供了一種有效手段。網格細胞的多模塊表示提供了一個高效的高維向量空間,既可以用于表示,也可以用于記憶任意更高維度的向量。網格細胞的更新機制允許存儲向量之間的向量代數運算,這對于抽象高維空間中的向量整合至關重要。該網絡可以在不需要重新配置網格細胞網絡的情況下,表示、存儲并對不同維度的抽象向量執行代數運算。
(Constantinescu, O'Reilly & Behrens, 2016)解釋說,在與空間和概念任務相關的大腦區域中發現的類似網格的活動,提出了存儲空間和概念表征的共同神經編碼機制的可能性。它引用了海馬體細胞在人類中編碼個體概念的證據,并指出嚙齒動物的網格細胞可能代表超出空間的維度,例如時間。該研究使用功能性磁共振成像(fMRI)來調查人類在導航抽象概念表征時是否采用六邊形對稱編碼。為實驗設計的任務類似于空間導航,但涉及抽象維度。
實驗的參與者學習了鳥類刺激與圣誕節相關符號之間的關聯。鳥類刺激是獨特的,并在兩個連續維度(頸部和腿部長度)上有所變化,但在一維(垂直)視覺空間中呈現。這要求參與者從一維視覺呈現中提取二維概念信息。
參與者觀看了根據特定頸部到腿部比例變形的鳥類視頻,并被指示想象如果鳥類繼續以相同的方式變形,將出現哪個符號。為確保鳥類空間中的運動軌跡方向與視覺屬性分離,軌跡設計為避免與視覺特征共享方差。在某些試驗中,參與者必須從三個符號中選擇一個(圖10.6)。
參與者在基于鳥類變形預測符號方面達到了高準確率(約73%),然而,沒有人報告說他們將鳥類和符號之間的關系想象成空間地圖,即參與者并沒有意識到這些關聯可以組織在一個連續的“鳥類空間”中。
研究發現了神經活動中的六角調制效應;這種效應在整個大腦中被識別出來,并且在特定區域最為強烈。因此,大腦可能使用具有六角網格模式的全局代碼來組織非空間的概念表征。
(Mok & Love, 2019)對內側顳葉(MTL)中的概念知識依賴于空間處理和導航回路的觀點提出了挑戰,提出了一個通用學習算法作為解釋空間和概念領域中發現的現象。盡管MTL支持的記憶類型在表面上存在差異,但本文提出MTL采用通用算法來學習和組織與上下文相關的信息,使其以有用的格式呈現,而不是依賴于特定于導航的神經回路。
將嚙齒動物置于不同幾何環境中的實證研究支持了模型預測。在這種情況下,網格細胞的激活在非均勻環境中變得不那么網格化,特別是在更狹窄的區域中,這種下降尤為明顯。
(第15.7節中介紹的)一個認知聚類模型在一個正方形環境中被訓練,然后轉移到一個梯形環境中。因此,模型的“網格得分”(六角對稱性的度量)在梯形環境中下降,與梯形的寬側相比,狹窄側的下降更為顯著。聚類模型表明,由于空間導航任務中可能的輸入分布相對均勻,網格狀表征在空間導航任務中出現。相比之下,在概念任務中,輸入采樣更稀疏,整體空間更高維,表征更符合人類的概念知識。環境幾何形狀的變化,包括非均勻性,預計會影響聚類并使網格模式不那么明顯。
該研究強調,最初提出用于理解記憶和概念學習的模型,也解釋了空間導航現象,包括地點細胞和類似網格細胞的表征。它表明,空間發現自然地作為更一般的概念學習機制的特例出現。因此,在編碼抽象空間時,類似網格的響應應該是例外,而不是規則。表征空間可以是高維的,并非所有維度都同樣相關,導致在復雜環境中出現非網格狀的響應。
在(Stachenfeld, Botvinick & Gershman, 2017)中,對海馬體中地點細胞作為編碼純空間認知地圖的傳統觀點提出了挑戰。相反,作者提出海馬體主要編碼一個預測地圖,它代表對個體未來狀態的預期。這意味著地點細胞的激活不僅僅與當前位置有關,還取決于個體預期接下來要去哪里。
海馬體的預測功能在強化學習(RL)框架內被形式化,強調編碼期望和預測。后繼者表征(SR)方法被提出作為無模型和基于模型學習方法之間的中介。它允許靈活的價值計算以響應獎勵的變化,而沒有純粹基于模型的方法所伴隨的計算效率低下。該論文建議,SR可以通過擴展優先更新的前向掃描范圍來補充基于模型的規劃。與傳統的認知地圖或基于模型的RL不同,這一理論認為,使用無模型學習方法構建預測地圖,在動態環境中更具適應性。
作者提出海馬體將SR編碼為神經元群體的速率碼。每個神經元代表一個可能的未來狀態(例如,未來空間位置)。編碼特定狀態的神經元的放電率與在當前策略和當前位置下,該狀態在訪問次數上的折現期望值成比例。論文引入了“SR地點場”或“SR感受野”的概念,這些是環境中特定編碼未來狀態的神經元具有高放電率的區域。在二維環境中,這些SR地點場類似于地點細胞的傳統圓形放電場。當人們從場地的峰值移開時,放電率逐漸降低。
最初,網格細胞被認為是表示歐幾里得空間度量,有助于路徑整合(或航位推算),即通過使用先前確定的位置和速度、航向和經過時間的估計來近似當前位置。提出的預測地圖理論表明,網格場傾向于不是全局規則的網格,而是受全局邊界和多室結構影響的任務結構的預測地圖。
在多室環境中,與單一室矩形圍欄相比,網格場的規律性變得不那么明顯,因為分隔室之間的障礙物擾亂了從不間斷的二維網格的任務拓撲。
在(Stoewer等人,2023年)中,認知地圖被討論為記憶和經驗及其關系的表示。這些地圖是通過地點和網格細胞形成和導航的。論文引入了“多尺度后繼者表征”作為地點和網格細胞計算背后的數學原理。這一原理被提出為構建認知地圖的基礎。
提出了一個神經網絡模型,該模型被訓練學習從編碼為特征向量的32種不同動物物種中派生出的語義空間的認知地圖。通過訓練,網絡有效地識別了這些物種之間的相似性,并構建了一個“動物空間”的認知地圖。
該神經網絡模型實現了用于非空間導航任務的后繼者表征(SR),并結合了記憶痕跡理論和認知地圖理論。SR被視為模擬地點細胞放電模式的一種方式。它涉及計算環境中狀態的未來獎勵矩陣,并使用它們構建表征。基于SR發展的認知地圖可以用于通過任意認知地圖進行導航,以及在新輸入和過去記憶中尋找相似性。
模型展示了創建具有不同尺度的層次化認知地圖的潛力。細粒度地圖顯示了特征空間中動物向量的均勻分布,而粗粒度地圖則按生物類別對動物進行聚類,例如兩棲動物、哺乳動物和昆蟲。該模型還展示了它可以通過從認知地圖中插值表征來準確表示完全新的或不完整的輸入。
這種模型的實現為理解大腦如何處理和導航抽象概念空間提供了新的視角,并可能有助于開發更智能的人工智能系統,這些系統能夠學習和適應不斷變化的環境。通過將抽象概念空間映射到類似于空間導航的神經表征中,這些模型可以幫助揭示大腦如何在復雜環境中識別模式和關系。
(Whittington等人,2020年)將空間記憶和關系記憶問題視為結構抽象和泛化的例子。這意味著,就像不同的空間環境共享共同的規律性,允許進行推斷和捷徑一樣,類似的結構規律性也使得非空間關系問題中能夠進行推斷。分解表征涉及將知識的不同方面分開,并靈活地重新組合它們以代表新的經驗,這對學習和進行推斷是有益的。作者引入了托爾曼-艾肯鮑姆機器(Tolman-Eichenbaum machine, TEM)作為一個模型,利用分解和結合來構建一個能夠在空間和非空間領域泛化結構知識的關系記憶系統。TEM預測,盡管海馬重映射可能看起來是隨機的,但實際上反映了跨環境保持的結構表征。作者在地點細胞和網格細胞中驗證了這一預測,提出了一個統一的框架,用于海馬-內嗅皮層在各種任務中的表征、推斷和泛化。
論文描述了一個無監督學習問題,涉及一個代理任務,該代理任務需要預測從圖的概率轉換中派生的序列中的下一個感官體驗。代理被呈現感官觀察序列以及有關引起圖上相鄰節點之間轉換的關系或動作的信息。存在不同類型的關系,如家族層級或空間導航。當代理經歷了圖上所有可能的轉換時,它可以將整個圖存儲在記憶中并進行完美預測。然而,如果事先知道圖的結構屬性,即使在經歷所有轉換之前,也可以進行完美預測。這是因為理解結構允許代理根據已知模式推斷額外的關系和轉換。
例如,在家族層級中,了解結構允許代理進行諸如“Bob有一個女兒,Emily”的推斷,這立即導致其他推斷,如“Emily是Alice的孫女和Cat的侄女”,而無需直接經歷這些轉換。同樣,在空間導航中,理解二維圖的結構使代理能夠在坐標上放置一個新節點,并推斷其與圖上其他點的連接關系信息。
感官預測問題被分解為兩個主要組成部分:關系圖結構和感官觀察。理解關系結構有助于路徑整合,而關系記憶將感官觀察綁定到結構中的位置。為了促進泛化,模型將與抽象位置相關的變量(跨地圖概括)與那些植根于感官體驗的變量(特定于特定地圖)分開。這些變量在神經網絡中被表示為單元群體。
主要目標是學習神經網絡(NN)權重,這些權重能夠表示關系結構中的位置并形成關系記憶。這些記憶通過Hebbian學習存儲,并稍后被檢索。由此產生的神經網絡架構與海馬形成的功能解剖學非常相似,因為海馬表征是通過結合感官輸入和抽象位置形成的。為了推斷抽象位置的新表征,TEM根據當前動作/關系從先前的抽象位置執行路徑整合。路徑整合中的錯誤累積使用存儲在海馬記憶中的聯合表征進行校正。在具有自重復結構的情況下,認知地圖可以分層組織。該模型包括多個并行流,每個流接收感官輸入并擁有自己的抽象位置表征。
該研究強調了TEM學習方案與醒睡算法和Helmholtz機器(Dayan等人,1995年)之間的相似性。它表明,從清醒經歷中提取規律性的海馬重放可能涉及從環境的生成模型中抽樣,就像TEM所做的那樣。
(O'Reilly等人,2014年)回顧了與補充學習系統(CLS)框架(McClelland, McNaughton & O'Reilly, 1995年)相關的觀點,該框架解釋了為什么大腦需要兩個專門的學習和記憶系統,并指定了它們的中心屬性:海馬作為快速學習情景記憶的稀疏、模式分離系統,以及新皮層作為逐漸整合跨情景以提取潛在語義結構的分布式、重疊系統。
作者認為,災難性干擾是使用高度重疊分布式表征的系統的后果,但這些系統也可以提供如泛化和推斷等理想屬性。如前所述,災難性干擾是一種現象,即隨著網絡學習新模式,它調整其參數以適應新數據,通常覆蓋了它早期學習到的現有模式。因此,網絡同時在兩項任務上表現不佳。在終身學習場景中,模型必須不斷適應新信息而不忘已經學到的內容,災難性干擾構成了重大挑戰。
CLS提出,具有稀疏、不重疊表征的結構上不同的系統可以補充高度重疊的系統。海馬整合來自不同皮層區域的信息,形成事件的聯合表征。海馬系統采用模式分離,具有非常稀疏的活動水平,以編碼新信息,同時防止與現有記憶的干擾。CLS斷言,海馬以不同于新皮層的方式編碼信息,以最小化干擾,通過稀疏激活水平維持高度分離的表征。為了實現分離,海馬采用非常稀疏的激活,如0.05%,與皮層大約15%的激活形成對比。
人們認為海馬體在睡眠期間重放記憶,允許大腦皮層有時間整合新記憶而不會覆蓋舊記憶。(Winocur, Moscovitch & Bontempi, 2010)提出了與(McClelland, McNaughton & O’Reilly, 1995)類似的鞏固觀點,強調在大腦皮層中鞏固的記憶與海馬體最初編碼的記憶不同。皮層提取了一種泛化的“要點”表征。記憶不是從海馬體轉移到皮層,而是皮層基于海馬體編碼形成了自己的分布式表征,捕捉了最初不存在的相似性結構。海馬體需要在編碼(受益于模式分離)和回憶(受益于模式完成)之間找到平衡。“theta相模型”表明,海馬體每秒在編碼和檢索模式之間切換多次,而不是不頻繁和策略性地切換。海馬體可能使用這些theta相動態進行錯誤驅動學習。它不斷嘗試回憶與當前情況相關的信息,并基于回憶與實際輸入之間的差異進行學習。
(Tomasello等人,2018年)描述了一個神經計算模型,該模型模擬了語義學習和行動與感知中符號的接地。該模型嘗試復制大腦如何通過在不同腦區的神經元群體的共同激活來學習并與感覺感知和運動行動關聯語義信息。該模型采用Hebbian學習,導致在各個皮層區域中形成了分布式細胞組裝電路。通過這種學習過程形成的語義電路表現出類別特異性分布。例如,與動作詞相關的電路延伸到運動區域,而與視覺描述詞相關的電路則延伸到視覺區域。該模型確定了大腦內某些中心區域,這些區域擁有大量的神經元,在整合音韻和語義信息中發揮重要作用。該模型旨在解釋語義中心和類別特異性腦區的存在是神經解剖學連接結構和語言學習期間相關的神經元激活這兩個主要因素的結果。
(Mack, Love & Preston, 2018)討論了海馬功能與概念學習之間的關系。它強調了海馬體,傳統上與記憶相關,也在形成和組織概念知識中發揮重要作用。它介紹了EpCon(從情節到概念)理論模型,該模型將情節記憶和概念學習聯系起來。它表明,海馬體將最初編碼的情節記憶轉化為有組織的概念知識。雖然海馬體最初被認為主要參與個體情節編碼和檢索,但最近的研究顯示了更廣泛的作用。海馬體參與構建跨越多種經驗的靈活表征,對目標敏感,并指導決策制定。EpCon模型受到概念學習SUSTAIN模型(Love, Medin & Gureckis, 2004)的影響,如第15.7節所述,該模型認為概念表征是通過選擇性注意和記憶過程的交互形成的。它包括幾種映射到海馬功能的機制,包括模式分離和完成、記憶整合和基于記憶的預測誤差。它們由注意力偏置引導。EpCon的適應性允許形成突出概念特有共同特征并區分概念的表征。這個過程將情節記憶轉化為有組織的概念知識。論文還提到了另一項研究(Davis, Love & Preston, 2012),為海馬體參與概念形成提供了直接證據,表明海馬體調整其表征以捕捉新概念的本質,整合重疊的經驗用于基于規則的表征,并使用模式分離為例外情況創建不同的表征。
11.大腦中的表征
11.1.數字
(Dehaene, 1993)引入了一種數學理論,將神經生物學觀察與數值認知中的心理原則聯系起來。被命名對象的數量,即數量(numerosity),由數量探測器的放電模式表示。每個神經元對應一個首選數字,并遵循基于數字對數的高斯調諧曲線。決策依賴于貝葉斯對數似然計算和由此編碼產生的累積。這些方程準確模擬了涉及數字比較和相同/不同判斷任務的反應時間和錯誤,與行為和神經數據非常吻合。
其中N是正態分布。
該方程斷言,給定的數值輸入在不同的時間由傾向于聚集在數字線上的log(n)位置的噪聲值表示。
每個數量大約由一組特定的數量檢測器神經元表示,每個神經元都適應特定的數量(圖11.1)。考慮到人們處理廣泛數字的能力,神經閾值的對數排列是合理的。這種排列意味著分配給較大數量的神經元較少,并且它與觀察結果一致,即辨別較小數字之間的差異比區分較大數量更容易。隨著數字的增加,辨別的精度降低。
直接的神經記錄確定了與數字相關的兩種類型的神經編碼:數字選擇性編碼和總和編碼。前者已在上面介紹。后者與數字表示的累加器模型有關,其中數量通過累積串行生成的脈沖數量來表示,即尖峰的數量隨著數量增加(Meck & Church,1983)。
心理學研究涉及將數字值映射到空間表示,如數字線,顯示小孩子通常提供對數估計,而較大的孩子和成年人傾向于產生線性估計。這可能是由于神經元調諧函數的變窄,這對于準確編碼數字至關重要。此外,韋伯分數,表示可以區分的最小比例差異,隨著年齡的增長而變化,表明底層調諧函數的修改(Siegler & Booth,2004)。
(Kutter等人,2022)證明了內側顳葉神經元群體中存在抽象和符號無關的加法和減法代碼,這表明大腦有能力執行算術運算,無論使用的具體符號或符號如何。這項研究涉及記錄單神經元活動,而人類參與者執行加法和減法任務。該研究使用了各種符號和視覺顯示來控制非數值因素,并發現參與者以高準確性執行這些任務(圖11.2)。作者在MTL中識別出選擇性響應加法或減法指令的規則選擇性神經元。這些神經元被認為編碼算術規則,并在響應應用于不同大小的特定定量規則時表現出一定程度的專業化。
作者在不同的MTL區域識別出不同的編碼模式,即它們在算術處理中可能有不同的認知功能。靜態和動態代碼表明在算術任務中進行的不同認知過程。在海馬體中觀察到的靜態代碼涉及持續規則選擇性神經元,所以這個區域可能負責實際計算算術運算,如加減數字。這與工作記憶的概念有關,其中信息被操縱和計算。另一方面,在海馬旁皮質中看到的動態代碼涉及與短期記憶相關的快速變化的規則信息,可能暫時保存算術規則以供計算。
在(Cope等人,2018)中,作者探討了像蜜蜂這樣的簡單動物是否具有學習抽象概念(如同類和不同)的認知能力的問題。這些能力通常與高階認知功能相關,并被認為依賴于哺乳動物新皮質的復雜神經過程。然而,這篇論文提出了一個新的神經網絡模型,證明蜜蜂確實可以使用它們大腦中相對簡單的神經結構來學習這些抽象概念。
該模型基于已知的蜜蜂蘑菇體的神經連接和特性,蘑菇體是一種參與感官處理和學習的大腦結構。它成功地復制了蜜蜂在各種聯想學習任務中的表現,包括那些涉及同類和不同的任務。這一發現挑戰了抽象概念學習需要高級神經機制的假設,并表明蜜蜂的大腦,盡管與哺乳動物相比體積小且簡單,但可以執行這樣的操作。
11.2. 決策
滲漏競爭積累器(LCA)模型(Usher & McClelland,2001)是一個詳細的計算模型,旨在解釋選擇隨時間的進展。這個模型是經典積累器模型的擴展。它基于決策是一個漸進過程的想法。它假設信息隨時間積累,并且選擇是基于不同反應選擇的證據的相對積累做出的。
LCA包括隨機性;在每個時間步長,證據積累過程受到隨機波動的影響。這種隨機元素允許決策結果和反應時間的可變性。該模型的一個重要特點是引入了泄漏,也稱為衰減。這意味著隨著時間的推移,每個反應選擇的累積證據逐漸減少。泄漏在決策過程中引入了一定程度的不完美,因為它反映了證據可能不會被完美保留的想法。
它還包含了反應選擇之間的競爭原則。隨著證據的積累,反應選擇相互競爭,選擇是基于哪個選擇在一段時間內積累了最多的證據。這種競爭是通過橫向抑制的過程實現的,這意味著一個反應選擇的激活抑制了其他選擇的激活。 該模型可以表示為一個兩層網絡。它由輸入單元(表示網絡的外部輸入)和積累器單元(每個對應一個反應選擇)組成。這些積累器單元類似于神經元群體,具有激活和輸出變量。使用了一個簡單的非線性函數(閾值線性函數),它將積累器單元的激活映射到它們的輸出。這個函數用于確定何時觸發反應以及選擇哪個反應選擇。
表示選擇的單元的激活的演變由以下方程給出:
LCA模型還解釋了從感官輸入到明確反應的信息處理的延遲。這些延遲被視為固定參數,它們解釋了實驗中觀察到的反應時間曲線的初始平坦部分。 該模型不限于特定類型的感知任務。它已被應用于廣泛的選擇任務,并已顯示出其在解釋與決策相關的各種實證現象方面的實用性。 (Fang,Cohen & Kincaid,2010)探討了一類特定的動態神經網絡,其特點是橫向抑制和WTA行為。該研究揭示了在一大類競爭NN中存在WTA行為,并為實現WTA平衡建立了充分條件。此外,還進行了嚴格的收斂分析。確定的WTA行為條件為設計此類網絡提供了實用指南。一旦網絡進入WTA區域,它就會迅速收斂到WTA點。這一特性簡化了決策過程,因為一旦網絡進入WTA區域,就可以宣布勝者。此外,該論文介紹了自復位NN的概念,使網絡在不使用時能夠返回到其初始狀態,并為新輸入做好準備。
11.3. 行動
(Tan等人,2013)討論了對獼猴顳葉部分的研究,這部分大腦區域涉及處理與行動和行動者相關的視覺信息。作者的目標是了解單個神經元如何表示行動和行動者。他們使用了一種簡單的編碼,稱為片段匹配模型,該模型假設每個神經元將大約120毫秒的單一步驟內的傳入視覺輸入與其偏好的刺激(特定行動的短片段)進行比較。
與尋找專門用于編碼演員不變或行動不變信息的不同神經元簇的預期相反,該研究沒有識別出這樣的簇;結果表明,神經表示方案更加連續和分布。視覺系統似乎采用了一種更普遍和概括的方法來表示行動和行動者,而不是具有特定功能的離散神經元組。該模型使用線性權重來確定傳入輸入和偏好刺激之間的相似性,即作者測試了響應的線性加權和再現神經元中神經響應模式的能力,這個簡單模型提供了令人驚訝的好結果。
(Vaidya & Badre,2022)討論了兩個不同大腦網絡中的抽象任務表示:額頂葉(FP)網絡和一個涉及內側顳葉(MTL)、內側前額葉皮質和眶額皮質(OMPFC)的網絡。MTL-OMPFC網絡與編碼對象之間的關系、上下文依賴性和抽象任務信息有關。FP網絡與快速重新格式化任務信息以進行認知控制和行動選擇有關。
MTL-OMPFC網絡以認知地圖格式維護任務知識,使得能夠評估個體在抽象任務空間中的位置。相比之下,FP皮質將抽象任務知識格式化為生產規則,促進行動選擇。
提到了知識-行動分離現象,其中前額葉損傷可能會損害基于抽象規則的行動實施,盡管對規則的理解完好無損。相比之下,MTL損傷不會顯著影響認知控制任務的表現。關于技能學習任務的行為研究表明,抽象任務知識可以從通過陳述性記憶的比較搜索演變為更有效的抽象生產,從而加速任務實施。
FP網絡在新任務開始時、任務指令期間以及在現有任務中添加新規則時被激活,這表明任務信息的快速重新格式化。MTL-OMPFC網絡與根據任務空間表示進行推斷和計劃行動有關。計算模型提出,內嗅皮質和海馬體參與構建有助于學習和推斷的可推廣知識。
這兩個網絡根據認知和行為需求發揮不同的作用。一方面,MTL-OMPFC網絡專注于從經驗中發現任務結構,推斷潛在任務狀態和抽象關系。另一方面,FP網絡將抽象任務表示維護為認知控制和引導行動選擇的狀態-行動偶然性。
12. 向量符號架構(超維計算)
符號表示使用符號表示對象或概念。它們具有組合結構,允許創建幾乎無限數量的表達式,其中復雜的表示由更簡單的表示組成。然而,它們的生物學實現是不確定的。連接主義表示包括神經網絡和類腦表示,包括兩種主要類型。局部表示為每個對象使用一個元素,相當于“祖母細胞”的概念(Quiroga等人,2005),在大腦中確實發現了一些證據。然而,大多數大腦表示不依賴于這種形式,而是作為分布式表示,將信息建模為分布在許多神經元上。在其數學等價物中,它們使用向量表示,其中每個對象由向量分量的一個子集表示。它們提供高表示能力,直接訪問對象表示,可以在噪聲和不確定性存在的情況下有效工作,并且更具有神經生物學上的合理性。
特別是對于經典連接主義表示來說,一個挑戰是疊加災難。例如,讓我們考慮四個神經元,它們的激活方式如下:第一個在正方形存在時激活,第二個在圓形存在時激活,第三個在紅色物體存在時激活,第四個在藍色物體存在時激活。這些神經元將無法區分同時呈現的紅色正方形和藍色圓形與同時呈現的藍色正方形和紅色圓形,因為在兩種情況下所有四個單元都會被激活。這個問題也阻止了層次化組合結構的表示。
向量符號架構(VSA)領域,也稱為超維計算(HDC),旨在結合分布式和符號表示的優點,同時避免它們的缺點。VSAs是可以直接實現特定于符號處理的功能的連接主義模型(Kleyko等人,2023a)。
VSA/HDC的關鍵特征包括(Thomas,Dasgupta & Rosing,2021):從輸入數據到高維神經表示的單一靜態映射,所有計算都在高維空間中使用簡單的操作(如元素加法和產品)執行,映射可能是隨機的,因此表示的單個元素具有低精度,通常取二進制值。
12.1. 基本操作
VSAs通常實現兩個主要操作,其數學細節區分了已經提出的各種表示。
疊加(或捆綁)將多個超向量(HV)組合成一個HV。它模擬了神經模式的同時激活,通常作為二進制HV的析取或實值HV的加法。然而,僅靠疊加操作可能導致疊加災難,其中關于初始對象組合的信息丟失。
綁定是另一種基本操作,以可恢復的方式組合兩個HV。 在接下來的部分中,我們將介紹幾種由這些操作的具體實現定義的VSA。
12.2. 表示方法
12.2.1. 張量積表示
張量積表示(TPR)是最早的VSA模型之一(Smolensky,1990)。它使用從歐幾里得單位球(一般來說,HV可以是實值的)中隨機選擇的原子HV。疊加通過張量加法實現。綁定操作是一個張量積,隨著更多HV的綁定,維度呈指數增長。
讓我們考慮一個使用TPR的例子。我們將使用四個概念:圓形(C)、正方形(S)、紅色(R)和藍色(B),每個概念由一個4D向量表示:
這些基向量必須是正交的。在我們的例子中,只有一個1位用于區分概念,但在高維中,通常使用更多的1位;表示不假設獨熱編碼。另一種表示可以使用1和-1的元素值,并依賴于哈達瑪德矩陣,其中行是相互正交的,例如:
TPR可用于表達角色填充表示。角色是定義表示方面的類別或槽位。我們可以擴展我們的例子,使其具有諸如顏色和形狀的角色。填充物是占據這些角色的具體信息:紅色可以是顏色角色的填充物,圓形可以是形狀角色的填充物。在這種情況下,我們將紅色表示為顏色紅色。
12.2.2. 全息簡化表示
全息簡化表示(HRR)(Plate,1991)受到TPR的啟發。HV的元素是實值的,從均值為0,方差為1/D的正態分布生成,其中D是維度數。對于大的D,歐幾里得范數接近1。
綁定通過圓周卷積實現,這保留了單位范數,但產生的HV與輸入HV不相似。HRR中的解綁定涉及圓周相關,可能需要一個清理過程。 HRR用于語義指針架構(SPA)(Eliasmith,2015),將在第16.4節中介紹。 兩個HV x和y的圓周卷積定義如下:
與TPR不同,HRR中的綁定創建了一個與其輸入向量長度相同的向量,這增加了表示的一致性。
一種計算兩個向量的圓周卷積的計算高效算法利用了離散傅里葉變換(DFT)和逆離散傅里葉變換(IDFT)。一般來說,傅里葉變換與卷積密切相關,因為卷積操作的傅里葉變換等同于頻域中的乘法。
因此,圓周卷積可以用DFT和IDFT表示如下:
其中“·”表示元素間乘法。 在SPA中,這些操作通過矩陣乘法有效地實現,這些矩陣可以為某個D預先計算。
解綁定一個HV可以通過類似于矩陣求逆的操作來完成,這可以進一步簡化為使用置換,如下所示:
然而,這個操作是近似的,因此得到的x向量需要與基向量進行比較,以識別最接近的匹配,這對應于實際結果。
讓我們考慮一個具有形狀和顏色的相同示例,但這次是在HRR中:
使用公共庫(Tulkens,2019)中實現的通過加法進行疊加和通過圓周卷積進行綁定的操作,我們計算“一個紅色的圓和一個藍色的正方形”的表示:
12.2.3. 其他表示
傅里葉全息簡化表示(FHRR)(Plate,1994),也稱為頻域全息簡化表示,與HRR類似,但對HV的元素使用單位幅度的復數。FHRR中的疊加是通過可選幅度歸一化的逐分量復數加法。綁定操作是逐分量復數乘法(哈達瑪德積),解綁定是通過與HV共軛(逐分量角度減法模2π)的綁定實現的。
乘、加、置換(MAP)(Gayler,1998)在HV中使用實數或整數元素。疊加通過逐元素加法執行,而綁定和解綁定通過逐元素乘法執行。
二進制散射碼(BSC)(Kanerva,1996)使用二進制元素,疊加通過具有限制閾值1的逐元素加法執行,而綁定和解綁定通過邏輯異或操作執行。
已經提出了幾種其他的表示,并且所提出的表示也有多種變體。
12.3. 類比推理
Pentti Kanerva(2009)提出了一個使用VSA中角色和填充物概念進行類比推理的例子,以回答諸如“墨西哥的美元是什么?”這樣的問題,即其貨幣。
這個問題可以通過以下方式解決。國家(C)和貨幣單位(M)的角色被編碼為HV(例如,具有10,000個元素)。可能的填充值,美國(U)、墨西哥(E)、美元(D)、比索(P)以類似的方式編碼。
關于美國的“整體記錄”是:
我們可以通過解綁定找到美元扮演的角色:D A ≈ M。結果是近似的,因為只有A的M D部分產生有意義的結果,接近碼本中的一個向量,而C U部分產生噪聲。對B(D B)的類似操作也會產生噪聲。然后,我們可以通過解綁定M E ≈ P找到墨西哥的貨幣。因此,找到“墨西哥的美元”的一般公式是:
12.4. 表示組合結構
組合結構由對象構成,這些對象可以是原子的或組合的。原子對象是組合結構的基本元素。更復雜的組合對象是由原子元素和更簡單的組合對象構成的。這種構造類似于部分-整體層次結構,其中較低級別的部分組合起來創建更高級別的實體。在VSA中,組合結構通過使用其組成元素的HV轉換為HV。在這個轉換過程中應用疊加和綁定操作。目標是使用相似的HV表示相似的組合結構,并在需要時恢復原始表示。
12.4.1. 表示符號
為了將符號轉換為HV,通常使用獨立同分布(i.i.d.)的隨機HV。生成的HV相當于符號表示,因為它們的行為類似于符號:它們與它們的副本具有最大的相似性,與其他i.i.d.隨機HV具有最小的相似性。
12.3.2. 表示數值
在各種任務中經常遇到數值標量和向量,在VSA中,重要的是在保持接近值之間的相似性和遠離值之間的不相似性的同時表示它們。有三種主要的將數值向量轉換為HV的方法(Kleyko等人,2023a),如下所述。
在組合方法中,標量的接近值由相似的HV表示,隨著標量值的不同,相似性降低。通常,標量首先被歸一化到指定的范圍(例如,[0,1]),然后被量化成有限的等級或水平。生成相關的HV來表示有限數量的標量等級,通常多達幾十個。各種方案用于生成這些HV,包括通過串聯和減法-加法進行編碼。分數冪編碼等方案允許直接對復值HV進行指數運算以表示標量,無需歸一化或量化。不同標量分量的HV使用疊加或乘法綁定組合,以形成表示數值向量的組合HV。
感受野方法,稱為粗編碼,通過由向量激活的感受野表示數值向量。各種方案,如小腦模型關節控制器、Prager碼和隨機子空間碼,使用隨機放置和大小的高維矩形作為感受野。這些方法可以產生二進制HV或實值HV,例如使用徑向基函數(RBF)。它們在數值輸入向量和這些感受野之間形成一個相似性函數。
隨機投影方法(RP)通過將數值向量乘以RP矩陣來形成一個HV。當產生較小維度的向量時,它允許降維。RP矩陣可以由正態分布的分量或雙極和三進制矩陣組成。根據應用程序,結果可以是二值化的,以產生稀疏HV。RP矩陣也可以用于擴展原始向量的維度。可以使用多個RP矩陣來貢獻結果HV。
12.3.3. 表示序列
序列可以通過使用整個先前序列作為上下文來表示,這允許存儲重復的元素(Plate,1995;Eisape等人,2020),例如:
這個想法可以用于使用角色和填充物的語言表示,例如,“男孩看見一只狗跑”:
另一種選擇是使用一組固定的HV來表示序列中的每個位置:
12.3.4.表示圖形
對于圖,一種簡單的方法是為每個節點分配隨機HV,并將邊表示為連接節點的HV的綁定。整個圖然后表示為所有邊的HV的疊加(Kleyko等人,2023a)。
12.4. VSA綜述
(Kleyko等人,2023a)提供了對VSA模型的深入回顧,并關注計算模型和輸入數據類型到高維分布式表示的轉換。
(Kleyko等人,2023b)將分析擴展到應用、認知計算、架構和未來方向,提供了VSAs范圍的整體視圖。它主要深入研究機器學習/人工智能領域的應用,同時也涵蓋了不同的應用領域,以強調VSAs的潛力。
(Schlegel,Neubert & Protzel,2022)概述了各種實現的運算符,并根據束容量、解綁定近似質量和結合綁定和捆綁操作對查詢回答性能的影響比較了VSAs。它在視覺和語言識別任務中評估了VSAs,揭示了基于架構選擇的性能變化。
13. 神經綁定問題
13.1. 神經綁定問題的變體
在圖的情況下,一種簡單的方法是為每個節點分配隨機HV,并將邊表示為連接節點的HV的綁定。整個圖然后表示為所有邊的HV的疊加(Kleyko等人,2023a)。 12.4. VSA綜述 (Kleyko等人,2023a)提供了對VSA模型的深入回顧,并關注計算模型和輸入數據類型到高維分布式表示的轉換。 (Kleyko等人,2023b)將分析擴展到應用、認知計算、架構和未來方向,提供了VSAs范圍的整體視圖。它主要深入研究機器學習/人工智能領域的應用,同時也涵蓋了不同的應用領域,以強調VSAs的潛力。 (Schlegel,Neubert & Protzel,2022)概述了各種實現的運算符,并根據束容量、解綁定近似質量和結合綁定和捆綁操作對查詢回答性能的影響比較了VSAs。它在視覺和語言識別任務中評估了VSAs,揭示了基于架構選擇的性能變化。
13. 神經綁定問題
13.1. 神經綁定問題的變體
(Feldman,2013)認為神經綁定問題(NBP)包括幾個不同的問題,如下所述。
一般協調是指理解大腦如何處理信息和感知同時發生的物體和活動中的統一性的挑戰。這種感知元素的綁定依賴于注意力,無論是通過顯式固定還是隱式激活,這在確定什么被綁定在一起、被注意和被記住方面起著重要作用。時間同步是NBP中的一個核心主題,包括神經放電、適應和不同神經回路的協調。它涉及到定時考慮(通過同步綁定)和神經信號的振蕩,尤其是相位耦合,是這種同步的關鍵組成部分。
視覺特征綁定關注大腦如何將不同的視覺特征(如顏色、形狀、大小、紋理和運動)組合起來,將物體感知為連貫的整體。核心問題是為什么人們不會將具有相似特征的物體(如紅色的圓和藍色的正方形)與其他物體(如藍色的圓和紅色的正方形)混淆(第12節中提到的例子)。視覺系統在空間和時間上的組織在特征綁定中起著重要作用。最詳細的特征綁定發生在中央凹視覺中,其中注視在空間和時間上本質上是協調的。注意力也是一個關鍵因素,因為它有助于視覺特征的綁定。各種實驗,如短暫呈現、掩蔽和雙眼競爭,通常揭示了在壓力條件下特征綁定的局限性,揭示了涉及的機制。此外,大腦可能使用多個較小的特征組合,而不是單一的統一表示來進行特征綁定。
知覺的主觀統一性提出了關于大腦如何整合不同的視覺特征的問題,盡管它們由不同的神經回路處理。人們對于一個穩定、詳細的視覺世界的主觀體驗與缺乏這種體驗的相應神經表示之間存在明顯的對比。這種差異被稱為神經科學中的“解釋鴻溝”或“硬問題”。
13.2. 變量綁定
我們在本綜述中的重點是變量綁定的神經實現。這是一個過程,其中語言或抽象推理中的變量與特定的值或實體鏈接以進行理解。例如,在句子“他在之前把它給了她”中,六個單詞中有四個是需要綁定到值以理解句子的變量。變量綁定的挑戰在于,可能有幾乎無限數量的項目可以綁定到變量,這使得傳統方法不足。
一種提出的變量綁定機制是時間相位同步,它依賴于同步神經放電的時間來創建綁定。這種方法將神經放電劃分為離散的時間片,其中放電的巧合表示變量之間的綁定。這種機制被使用,例如,由SHRUTI模型(Ajjanagadde & Shastri,1991;Shastri,1999),在第7節中介紹。
另一種方法涉及使用簽名傳播(Browne & Sun,1999)。在這個模型中,表達式中的每個變量都有自己的節點或神經元組,代表并傳輸與概念相對應的特定簽名。這些簽名本質上充當概念的名稱。然而,這種方法的一個主要挑戰是,它可能需要大量的簽名來表示所有可能的概念,而且目前尚不清楚大腦如何生成和管理如此大量的簽名。
另一個模型引入了一個中央綁定結構,用于控制綁定(Barrett,Feldman & MacDermed,2008)。這個結構允許臨時鏈接不同概念之間的節點或神經元,使系統能夠跟蹤特定的綁定,即使時間片或簽名在網絡中傳播。中央綁定還允許更復雜的操作,例如統一表示相同變量的簽名。
一些研究人員探索了用于動態變量綁定的乘法技術(Hummel,2011)。這些方法涉及使用分布式表示,其中概念的各種屬性以乘法方式組合,這允許靈活的動態變量綁定。
另一種方法涉及使用交叉桿網絡進行變量綁定(van der Velde & de Kamps,2006),其中計算節點之間的連接可以臨時啟用或禁用,以允許信號在特定時間段內在節點之間傳播。這種方法試圖通過在節點之間創建臨時鏈接來解決綁定問題,實現動態變量綁定。
(Greff,van Steenkiste & Schmidhuber,2020)是與變量綁定問題相關的問題的綜述。它提出了一個解決綁定問題的框架,并強調了從非結構化的感官輸入創建有意義的實體、維護獨立的表示以及使用這些實體構建推理、預測和行為的必要性。這個框架從神經科學和認知心理學中汲取靈感,使神經網絡研究與人類認知的見解保持一致。該論文討論了神經網絡無法動態和靈活地組合分布式信息——這是有效形成、表示和理解關系的類似符號實體所必需的能力。作者建議通過三個關鍵方面來解決綁定問題:表示、分離和組合。
表示涉及在表示層面上綁定來自不同類似符號實體的信息。對象表示作為神經處理中符號行為的基本構建塊。它們應該將神經效率與符號組合性結合起來,以一種既保留分布式、基于特征的內部結構的表達能力,又保留自包含對象的完整性的方式編碼信息。對象表示包括各種形式的實體,包括視覺、聽覺、抽象和概念元素。 分離問題涉及將感官信息結構化為有意義的實體,包括動態創建對象表示。這應該使神經網絡能夠獲得上下文相關的對象概念,通常是以大部分無監督的方式。對象的高度可變性使分離問題成為一個復雜的任務,但對于成功的符號信息處理至關重要。
組合問題圍繞著使用對象表示來構建支持推理、預測和計劃的結構化模型。這些模型應該使用對象的模塊性來實現系統化的、類似人類的泛化。這需要一種靈活的機制,允許神經網絡快速重組其信息流以適應特定的上下文或任務。
(Do & Hasselmo,2021)討論了各種方法來理解大腦如何表示和綁定不同組件以形成復雜結構。在這個框架中探索的核心概念是聯合編碼,其中角色和填充物由單獨的活動向量表示,它們的綁定通過一個將它們組合起來的權重矩陣實現。
然而,聯合編碼的一些挑戰也被討論了。一個問題在于它有可能無法保持角色和填充物的獨立性。例如,在像“Alice loves Bob”和“Bob loves Alice”這樣的句子中,聯合編碼將為作為愛人的Alice和作為被愛者的Alice創建單獨且不同的表示,盡管它們本質上是同一個實體。這種缺乏角色-填充物獨立性可能會阻礙在不同上下文中泛化的能力。
為了解決這個挑戰,論文引入了動態綁定的概念。這種方法涉及從代表Alice的單個節點創建不同的鏈接到她的不同角色,隨著上下文的變化能夠快速創建或銷毀這些鏈接。動態綁定依賴于神經元中尖峰活動的時間同步來表示角色和填充物之間的關系。它允許角色-填充物獨立性,并且可以適應隨時間的各種綁定。
時間同步在單元必須同時充當角色和填充物的情況下存在局限性。為了克服這一點,引入了時間異步的概念,其中發射的順序保持了因果關系。這個概念對于表示復雜結構和層次特別有價值,例如在人類語言中發現的那些,其中元素可能需要以各種方式組合和重組,以傳達不同的含義或細微差別。時間異步還在單元需要同時充當角色和填充物時提供了一個解決方案,保持了綁定的方向性。
(Hayworth,2012)關注神經科學背景下視覺感知的綁定問題。它引入了一個新的神經網絡模型,稱為動態可分區自動關聯網絡(DPAAN),它提供了一個不依賴于神經元之間精確時間同步的解決方案,使其更符合學習、記憶和模式識別的既定神經模型。
它建立在解剖學綁定假設的基礎上,將符號與特定的神經放電模式關聯起來。然而,這涉及到在一個生物系統中跨不同神經模塊保持一致代碼的挑戰,這是難以置信的。論文還討論了同時表示多個視覺對象的挑戰,這是一個健康人容易完成的任務。它提出了多個注意力聚光燈的想法,以允許對不同對象進行獨立訓練,借鑒了大腦能夠關注多個實體的證據。
該論文證明了所提出的架構可以自我組織并學會實現間接。學習通過暴露于各種角色-填充物組合發生,使系統能夠處理廣泛的組合,甚至是它從未遇到過的組合。 該模型的架構還允許分層嵌套控制,其中PFC中的一組神經元的輸出控制另一組神經元的BG門控信號。這種變量和值的分離支持了間接機制。
14. 認知模型
(Dehaene,Kerszberg & Changeux,1998)解決了在假設意識努力的任務中大腦處理的建模問題。作者建議存在一個由一組分布式皮層神經元組成的全局工作空間。這些神經元通過長距離興奮性軸突接收來自各個皮層區域的神經元的輸入,并向它們發送輸出。這群神經元不限于特定的腦區,而是以可變的比例分布在它們之間。一個特定的大腦區域對全局工作空間的貢獻程度取決于其金字塔神經元對第2層和第3層的貢獻比例,這在某些皮層結構中特別突出。另一個計算空間由功能專門化的處理器或模塊化子系統的網絡組成。這種架構如圖14.1a所示。
全局工作空間選擇性地允許在任何給定時間訪問它的輸入子集。這種門控過程由工作空間神經元到外圍處理器神經元的下行投射介導。這些投射可以放大或抑制來自處理神經元的上行輸入,激活工作空間中的特定處理器,同時抑制其他處理器。 工作空間活動表現出特定的時空動力學。它的特點是工作空間神經元子集以一致和排他的方式自發激活;一次只能有一個“工作空間表示”處于活動狀態。這一特性將全局工作空間與外圍處理器區分開來,后者可以同時存在多個表示。工作空間中的活動表示可以自主保持活動,但如果被負面評估或注意力轉移,可以被另一個表示取代。工作空間神經元的這種動態特性有助于產生思想和認知處理的多樣性,因為它不斷投射和測試關于外部世界的假設。
提出的神經元架構(圖14.1b)展示了無需專門為任務設計的預連線規則編碼單元就能學習Stroop測試的能力。學習是通過現實的神經元過程實現的。
Peter G?rdenfors(2004)引入了概念空間作為一個框架,融合了符號和連接主義方法的元素。它為表示概念和知識提供了一個替代方案。概念被表示為多維空間內的區域,即坐標系,每個維度對應于與概念相關的特定屬性或質量。例如,“顏色”概念可以在一個具有色調(例如,紅色、綠色、藍色)、飽和度(顏色強度)和亮度(明暗度)維度的空間中表示。
概念與表征它們的質量維度相關聯。這些維度包括從感官質量(如味道和氣味)到更抽象的質量(如美德或危險)的各種屬性。味覺的概念空間可能有甜度、苦度和咸度等維度。通過在這些維度中定位概念,該理論捕捉到了不同質量之間的關系。 這個理論的一個顯著特點是它關注概念空間的幾何結構。這些空間中概念之間的距離具有語義意義,并衡量相似性:接近的概念是相似的,而遙遠的概念是不相似的。凸區域在表示自然類別中起著重要作用,原型位于區域的幾何中心。典型性通過概念區域內中心性的程度來衡量。
在這些空間中執行的操作,如交集(共同屬性)和混合(組合屬性),反映了人們如何在思考中組合概念。交集涉及找到兩個概念之間的共同點,例如,“鳥”和“哺乳動物”的交集可能產生“蝙蝠”。概念混合或組合通過相交或合并不同的空間區域發生,例如,混合“石頭”和“獅子”的概念產生了一個新的“石獅子”概念。這種混合概念的能力可以捕捉復合或隱喻意義。
概念的意義通常由其出現的上下文決定,因為有些屬性不能獨立于其他屬性定義。例如,“高”屬性與高度維度相關,但不能與該維度中的特定區域等同。吉娃娃是狗,但高大的吉娃娃不是高大的狗。因此,“高”不能與一組高大的物體或高度維度的高大區域等同。這個問題的解決方案是,這個屬性假設由其他屬性給出的對比類,因為事物本身并不高大,而只是相對于特定類別的事物而言。
(Lieto,Chella & Frixione,2017)認為概念空間可以作為符號和亞符號表示之間的通用語言。它提醒了在概念表示中調和組合性和典型性的挑戰。基于邏輯的表示是組合的,但通常與典型性效應不兼容,因為原型不能總是由子概念的單個原型組成。基于幾何表示的概念空間為處理典型性提供了更有希望的方法。通過將概念表示為適當概念空間中的凸區域,典型性可以測量為個體點與區域中心的距離。區域的交集表示概念的合取,允許更直觀地表示典型性和組合性。因此,概念空間可以統一和概括符號和亞符號方法的方面。
15. 分類模型
在本節中,我們將介紹認知心理學(CP)領域內提出的幾種分類模型。與機器學習(ML)中的分類算法不同,它們的主要目標不僅是模擬一些數據,還要在這些數據上匹配人類的表現。盡管如此,人們仍然可以清楚地認識到ML算法與以下章節中介紹的算法之間的相似之處。
總的來說,這些算法基于示例、原型或規則的概念,我們簡要定義如下。 示例是類別中項目或事件的具體實例或表示。示例作為類別的具體表現,可以有廣泛的變化。它們是個人遇到的并與特定類別關聯的個別案例或刺激。例如,不同品種的狗(如拉布拉多或貴賓犬)在更廣泛的“狗”類別中作為示例。
原型表示類別的中心表示。它們封裝了類別最典型或最具說明性的特征,并作為一個心理平均值。原型是基于類別中不同示例之間共同擁有的特征或屬性形成的。例如,典型的鳥可能具有翅膀、喙、羽毛和飛行能力等特征,作為“鳥”類別的原型。
規則涉及確定類別成員資格的明確標準。它們基于對象或事件必須擁有的特定定義特征或特性,才能被包括在特定類別中。這些標準可以指類別的包含或排除。例如,將汽車歸類為“跑車”的規則可能涉及高馬力、空氣動力學設計和高速能力。 由于這篇綜述是為AI讀者準備的,我們將在這里使用ML術語,盡管在認知心理學中使用的是略有不同的術語,例如:分類(CP)=分類(ML),刺激(CP)=訓練實例(ML),轉移刺激(CP)=測試實例(ML),范例(CP)=存儲在內存中的實例。
15.1. 自適應共振理論7
自適應共振理論(ART)(Grossberg,1976a;Grossberg,1976b;Grossberg,2013)試圖解釋大腦如何在動態環境中學習、分類和預測,同時保持穩定的記憶。它解決了穩定性-可塑性困境,這似乎通過大腦的自我組織性質得到了解決;它指的是在不抹去過去知識的情況下快速和適應性地學習的需求。ART試圖闡明解決這一困境的神經機制。
ART還關注意圖和注意力過程,并強調在關注相關信息時自上而下預期的重要性。它試圖模擬當自下而上和自上而下的信號對齊時,共振的大腦狀態是如何出現的。這種共振狀態通過將注意力引導到正確分類所需的關鍵特征模式上來促進快速學習。
通用ART算法有以下步驟——改編自(da Silva, Elnabarawy & Wunsch, 2019): - 呈現一個輸入實例; - 計算每個原型的激活值; - 通過WTA選擇激活值最高的原型; - 評估輸入與選定原型之間的匹配; - 如果匹配足夠,根據輸入更新原型; - 如果匹配不足,停用原型; - 重復與其他原型的WTA過程,直到找到匹配的原型; - 如果沒有找到合適的原型,根據輸入創建一個新原型; - 根據選定或創建的原型生成輸出; - 處理下一個輸入。
15.1.1. ART 1
ART 1模型(Carpenter & Grossberg, 1987)考慮二進制輸入,并使用漢明距離作為相似性度量。對于輸入x,F2中神經元的激活值為:
15.1.2. 模糊ART
模糊ART(Carpenter, Grossberg & Rosen, 1991)是最受歡迎的ART模型之一。它可以處理實值數據,并使用模糊邏輯操作。通常,輸入使用補碼編碼進行轉換,其中x變為[x, 1 – x]。通過這種方式,顯式地處理了數據屬性的存在和缺失。
F2單元的激活定義為:
其中β ∈ (0, 1]是學習參數。當β = 1時,ART模型被認為處于快速學習模式。當創建一個新的原型來學習輸入x時,它被初始化為w = 1。
一般來說,一個神經元不能解釋一個概念,正如神經群體中許多概念的群體編碼的證據所證明的那樣。在ART中代表原型或類的單個神經元可以被認為是代表細胞組裝并近似其行為,與神經合理性的目標一致。
15.2. 廣義上下文模型8
廣義上下文模型(GCM)(Nosofsky,1984;1986;2011)基于這樣一個觀點,即分類依賴于將新實例與存儲在記憶中的先前遇到的實例(范例)進行比較。它是先前上下文模型(Medin & Schaffer,1978)的擴展。
主要思想類似于ML中的k-最近鄰算法。
然而,GCM使用多維縮放(MDS)來創建問題心理空間的估計,其中實例可以表示為點。MDS依賴于人類受試者來估計實例對之間的相似性,并創建一個表示(通常是2D或3D),其中點之間的距離反映了它們原始的相似性,即相似的項更接近,而不相似的項更遠。
GCM還強調,相似性是上下文相關的,受到選擇性注意力權重的影
全局匹配模型(GCM)還強調,相似性是上下文依賴的,受選擇性注意權重的影響,這些權重會改變示例嵌入的空間。這些權重會在相關維度上拉伸,在無關維度上收縮。例如,在由一組固定屬性定義的花卉空間中,當目標是尋找美麗的花卉時,這些屬性可能具有一組權重;而當目標是尋找藥用花卉時,則可能具有另一組權重。此外,示例通常具有受呈現頻率、最近性或學習期間反饋等因素影響的不同強度。在對測試項進行分類時,相似度高且記憶強度高的示例可能會更多地影響決策。然而,由于檢索是概率性的,所有示例都在一定程度上影響分類決策。
根據該模型,在測試階段,實例i被歸類到類別c是基于以下方程,這意味著選擇的概率來自于對應于備選項的值的歸一化,這也被稱為Luce的選擇規則(Luce,1963):
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.