https://www.nature.com/articles/s41467-025-55832-y
Principled neuromorphic reservoir computing
神經(jīng)形態(tài)庫計算原理
摘要
儲層計算提出了一個引人入勝的觀點,即一個非線性遞歸神經(jīng)電路——儲層——可以對時空輸入信號進行編碼,從而實現(xiàn)高效地執(zhí)行分類或回歸等任務(wù)的方式。然而,最近關(guān)于單體儲層網(wǎng)絡(luò)同時緩沖輸入信號并將它們擴展為非線性特征的觀點受到了挑戰(zhàn)。一種將記憶緩沖和擴展為更高階多項式特征可以分別配置的表示方案已被證明在多變量時間序列預測方面顯著優(yōu)于傳統(tǒng)的儲層計算。在這里,我們提出了一種可配置的類腦神經(jīng)形態(tài)表示方案,該方案在預測性能上具有競爭力,但與以往直接實現(xiàn)更高階特征的方法相比,具有顯著更好的擴展性。我們的方法結(jié)合了傳統(tǒng)儲層計算中的隨機表示的使用以及通過這些表示近似多項式核的數(shù)學原理。雖然記憶緩沖可以使用標準儲層網(wǎng)絡(luò)實現(xiàn),但計算更高階特征需要“Sigma-Pi”神經(jīng)元網(wǎng)絡(luò),即能夠同時實現(xiàn)輸入的求和和乘法的神經(jīng)元。最后,我們在現(xiàn)有的類腦神經(jīng)形態(tài)硬件平臺Loihi 2上實現(xiàn)了記憶緩沖和Sigma-Pi網(wǎng)絡(luò)。
儲層計算是一種受神經(jīng)科學觀察啟發(fā)的遞歸神經(jīng)電路計算范式,并且已經(jīng)實現(xiàn)了遞歸神經(jīng)網(wǎng)絡(luò)的有效實現(xiàn),這種架構(gòu)在處理多變量時間序列的技術(shù)應(yīng)用中非常普遍。儲層計算使用一個神經(jīng)動力學系統(tǒng)——所謂的“儲層”,將時間序列映射到高維狀態(tài)空間中的一個模式,然后將其輸入到單層神經(jīng)網(wǎng)絡(luò)中。單層網(wǎng)絡(luò)可以通過監(jiān)督學習的方式進行訓練,以執(zhí)行諸如時間序列的分類或回歸等任務(wù)。儲層被認為具有兩個作用(圖1a):首先,它是輸入信號的存儲緩沖區(qū),如果需要強調(diào)最近的輸入歷史,則通常是衰減記憶緩沖區(qū)。對于緩沖來說,儲層的動力學必須是固定的。例如,標準策略是使用具有固定隨機連接的遞歸網(wǎng)絡(luò)。其次,儲層動力學中的非線性可以實現(xiàn)豐富的特征空間,包括輸入信號的非線性函數(shù),這可能實現(xiàn)原始信號上無法實現(xiàn)的可分性和泛化能力。
然而,在實踐中,儲層網(wǎng)絡(luò)形成豐富特征空間的能力可能會受到限制。例如,具有常見飽和神經(jīng)激活函數(shù)的儲層網(wǎng)絡(luò)主要導致記憶衰減,而得到的特征空間仍然與線性遞歸網(wǎng)絡(luò)的特征空間非常相似。包含更多神經(jīng)生物學細節(jié)的儲層網(wǎng)絡(luò),例如具有脈沖神經(jīng)元的網(wǎng)絡(luò),或者具有短期可塑性的突觸連接作為額外動態(tài)變量的網(wǎng)絡(luò),可以創(chuàng)建更豐富的表示。然而,要調(diào)整這種豐富性以最好地服務(wù)于特定的計算任務(wù)是非常困難的。為了說明傳統(tǒng)儲層計算的這些局限性,最近的研究表明,一種計算輸入信號延遲狀態(tài)之間張量積的表示方案(圖1b)可以在預測動態(tài)系統(tǒng)這一重要任務(wù)上實證性地優(yōu)于傳統(tǒng)儲層網(wǎng)絡(luò)。
鑒于這些局限性,我們在這里研究以有原則的、可配置的和高效的方式在類腦神經(jīng)形態(tài)硬件上實現(xiàn)具有非線性特征的儲層計算。我們提出了一種雙部分方法,結(jié)合兩種通用神經(jīng)電路(圖1c):傳統(tǒng)的儲層網(wǎng)絡(luò)用于形成存儲緩沖區(qū),以及新型的Sigma-Pi網(wǎng)絡(luò)用于計算非線性特征。我們從理論上描述了聯(lián)合表示特征空間的兩個基本操作——連接和張量積——并展示了每種操作都會導致構(gòu)建的表示之間不同的相似性結(jié)構(gòu)。我們基于隨機分布式表示提出了一個具體的多變量時間序列預測方案,并在類腦神經(jīng)形態(tài)芯片Loihi 2上展示了這些網(wǎng)絡(luò)的實現(xiàn)。這種基于向量符號架構(gòu)和隨機核近似思想的方法可以形成與連接或張量積具有大致相同相似性結(jié)構(gòu)的表示,但表示的維度保持固定。我們在混沌動態(tài)系統(tǒng)的預測上評估了這種新的隨機分布式表示,并表明通常可以用比原始顯式方法需要更少維度的表示來實現(xiàn)相同質(zhì)量的預測。
結(jié)果
聯(lián)合表示的形成:通過連接或張量積
為了從時間序列中進行預測,必須創(chuàng)建一個包含輸入信號部分歷史以及相關(guān)非線性特征的表示。一種經(jīng)典的方法是通過連接在不同時間點觀察到的 d 維狀態(tài)向量來形成一個記憶緩沖區(qū),以表示軌跡的歷史,例如:
在這個結(jié)果特征空間中,通過連接形成的兩個軌跡表示之間的內(nèi)積等于單個時間點狀態(tài)向量之間內(nèi)積的總和。
另一種方法是通過張量積將軌跡中不同時間點的狀態(tài)向量結(jié)合起來。得到的表示包含了原始狀態(tài)向量各分量的乘積,即非線性的高階特征,例如:
一對軌跡的張量積之間的內(nèi)積,即弗羅貝尼烏斯內(nèi)積,對應(yīng)于每個時間點可觀測狀態(tài)之間內(nèi)積的乘積。
通過內(nèi)積所衡量的相似性在兩種表示方式中是定性不同的。對于輸入信號的拼接,即使兩條軌跡的信號僅在一個時間點重合,它們?nèi)匀痪哂胁豢珊鲆暤南嗨菩浴O喾矗瑥埩糠e會形成輸入信號的多項式乘積,因此只有當兩條軌跡在所有時間點都重合時,它們之間的相似性才會很高。因此,在解決具體的計算任務(wù)時,重要的是要靈活地將這兩種操作應(yīng)用于輸入信號,以構(gòu)建最終的特征空間。
通過拼接和張量積表示軌跡
隨機分布軌跡表示
如文獻11、12和24所示,乘積表示方案(公式1)在從多變量時間序列進行預測方面可以優(yōu)于傳統(tǒng)的回聲狀態(tài)網(wǎng)絡(luò)。然而,這種方法的一個顯著限制是,隨著多項式的階數(shù)增加,表示的維度呈指數(shù)增長,見“高階特征的乘積表示”部分。
用于張量積和綁定的Sigma-Pi神經(jīng)元網(wǎng)絡(luò)
為了在神經(jīng)形態(tài)硬件上利用乘積表示或其等價的分布式表示,必須有一種網(wǎng)絡(luò)結(jié)構(gòu)用于計算拼接和張量積特征。正如已經(jīng)提到的,用于存儲延遲狀態(tài)軌跡的存儲緩沖區(qū)可以用傳統(tǒng)的線性回聲狀態(tài)網(wǎng)絡(luò)實現(xiàn),如圖1a所示。這些網(wǎng)絡(luò)由傳統(tǒng)的Sigma神經(jīng)元組成,這些神經(jīng)元對突觸輸入進行求和,并可能應(yīng)用逐點非線性激活函數(shù)。
圖2b、c中展示的分布式表示方法的另一個優(yōu)勢是,高階特征可以通過反復使用綁定的網(wǎng)絡(luò)結(jié)構(gòu)來計算(圖中未顯示遞歸連接)。由于綁定結(jié)果的維度與輸入的維度相同,因此可以將結(jié)果反饋作為其中一個輸入,并在下一次迭代中重新組合。這可以大大減少在神經(jīng)形態(tài)硬件上計算高階特征所需的資源,因為綁定網(wǎng)絡(luò)的突觸連接和神經(jīng)元可以被重復利用。
重要的是,具體的VSA模型選擇不僅應(yīng)基于相應(yīng)的網(wǎng)絡(luò)復雜性,還應(yīng)基于其對目標計算硬件的適用性。為了說明這一點,“神經(jīng)形態(tài)硬件上的實驗”部分展示了現(xiàn)有神經(jīng)形態(tài)芯片Loihi 2的實現(xiàn)。
在CPU上的實驗
遵循傳統(tǒng)回聲狀態(tài)計算(1、3)的范例,Gauthier等人(12)使用乘積表示方案(公式1)結(jié)合嶺回歸來構(gòu)建用于多變量時間序列預測的預測模型,并在預測混沌動力系統(tǒng)方面對它們進行了評估。在訓練過程中,從嶺回歸解(具有正則化參數(shù)α)中獲得輸出矩陣(“高階特征的乘積表示”部分,公式9)。訓練數(shù)據(jù)包括特征空間中的點以及目標函數(shù)對應(yīng)的真值,例如通過傳統(tǒng)數(shù)值積分確定的動力系統(tǒng)的下一個狀態(tài)向量。
神經(jīng)形態(tài)硬件上的實驗
在這里,我們在神經(jīng)形態(tài)芯片Loihi 2上展示了存儲緩沖區(qū)和Sigma-Pi網(wǎng)絡(luò)的實現(xiàn)(15、39)。Loihi 2(圖5a)是一種異步神經(jīng)形態(tài)計算架構(gòu),通過基于事件的報文傳輸信息。在Loihi 2中,這些報文可以包含24位信息——一個“分級脈沖”,我們用它來傳輸向量分量的大小。此外,Loihi 2具有一個可編程引擎,允許用戶定義自定義神經(jīng)元模型,我們用它來實現(xiàn)Sigma和Pi神經(jīng)元。
按照“用于張量積和綁定的Sigma-Pi神經(jīng)元網(wǎng)絡(luò)”部分的描述,我們使用兩種基本類型的神經(jīng)元進行實現(xiàn):Sigma和Pi。Sigma神經(jīng)元計算輸入群體與突觸權(quán)重之間的內(nèi)積,并將結(jié)果作為分級脈沖傳輸。Sigma神經(jīng)元還可以配置閾值,低于該閾值的內(nèi)積結(jié)果將不會產(chǎn)生脈沖輸出,這可以減少脈沖流量。Pi神經(jīng)元是一種特殊的神經(jīng)元,具有兩個輸入通道。突觸輸入在兩個通道上累積,然后神經(jīng)元計算這些輸入的乘積,并將結(jié)果作為分級脈沖輸出。通常,每個通道上只有一個突觸輸入。
因此,Loihi 2神經(jīng)元中的活動表示為包含24位的事件報文,這些位表示定點整數(shù)。8位突觸權(quán)重和Pi神經(jīng)元通過乘以整數(shù)值并右移來計算定點乘法,其中突觸權(quán)重的定點通常為27,分級脈沖的定點為212。芯片使用基礎(chǔ)軟件包Lava( )進行編程,以及Lava-VSA,它提供了構(gòu)建VSA電路的工具。由于稀疏性是Loihi 2電路的一個重要需求,我們利用了稀疏塊碼模型,如圖2c所示。表示被結(jié)構(gòu)化為 (K = 10)、(L = 20) 維的塊,(D = LK)。Lava-VSA軟件包包含用于創(chuàng)建網(wǎng)絡(luò)結(jié)構(gòu)的模塊,這些網(wǎng)絡(luò)結(jié)構(gòu)可以在Loihi 2上執(zhí)行,用于計算所需的高階特征的分布式表示。
為了驗證我們的實現(xiàn)是否產(chǎn)生有意義的表示,我們通過使用Lorenz63系統(tǒng)的狀態(tài)(公式23)作為輸入到在Loihi 2上運行的三種不同網(wǎng)絡(luò)架構(gòu)來進行可行性研究。目標是預測一個隨機選擇的二次函數(shù),該函數(shù)依賴于最近的兩個Lorenz63狀態(tài)向量(圖5b中的灰色線描繪了一個示例目標函數(shù))。為了說明這一原理,我們實現(xiàn)了并比較了三個網(wǎng)絡(luò):一個計算最近輸入歷史的存儲緩沖區(qū)的線性回聲狀態(tài)網(wǎng)絡(luò)(圖5b,左側(cè));一個計算最近狀態(tài)向量及其二階特征的聯(lián)合分布式表示的網(wǎng)絡(luò)(圖5b,中部);以及一個將存儲緩沖區(qū)與一階和二階特征結(jié)合起來的網(wǎng)絡(luò)(圖5b,右側(cè))。圖5b定性地說明了第一個網(wǎng)絡(luò)的預測效果最差,而第三個網(wǎng)絡(luò)的預測幾乎完美。圖5c定量地展示了這一點,報告了八個隨機實例的網(wǎng)絡(luò)預測誤差(實線)。性能與稀疏塊的數(shù)量(固定大小 (L = 20))相對應(yīng)。正如預期的那樣,第一個和第二個網(wǎng)絡(luò)的表示不足以緊密預測目標函數(shù),因為這些特征空間中不包含與目標函數(shù)匹配的特征。相比之下,使用包含存儲緩沖區(qū)及其二階特征的表示可以得到較小的誤差,且隨著塊數(shù)的增加而減小,因為所有相關(guān)的目標特征都存在。此外,Loihi 2上所有三個網(wǎng)絡(luò)的結(jié)果與它們的CPU對應(yīng)物的結(jié)果(虛線)非常接近。
回聲狀態(tài)計算是一種強大且通用的范式,用于在遞歸神經(jīng)網(wǎng)絡(luò)中利用隨機分布式表示進行計算。它借鑒了神經(jīng)計算的原理,并已被證明在廣泛的任務(wù)中非常有用(40)。然而,盡管在函數(shù)近似方面有通用的保證(6),傳統(tǒng)的回聲狀態(tài)計算在實踐中往往難以解釋和優(yōu)化。這促使我們探索對原始架構(gòu)的修改,以更少的資源實現(xiàn)相同的性能。例如,文獻41使用了結(jié)合時間延遲的回聲狀態(tài),文獻42使用了結(jié)構(gòu)化矩陣來加速回聲狀態(tài)的更新。另一種有前景的方法是顯式地建模數(shù)據(jù)中的高階多項式特征。文獻11、12和24探索了這一想法,表明從時間序列中提取高階特征可以顯著提高回聲狀態(tài)計算模型的性能。盡管這種方法功能強大,但顯式形成高階特征的維度會隨著多項式的階數(shù)呈指數(shù)增長,這使得其難以擴展到高維輸入。此外,龐大的顯式特征空間與回聲狀態(tài)計算中經(jīng)典的簡潔性動機相沖突,并且不太適合在神經(jīng)形態(tài)硬件上部署。在這里,我們提出了一種隱式計算高階特征的方法,并在減少資源需求的情況下保留了顯式構(gòu)建的性能優(yōu)勢。此外,我們展示了這種方法提供了一種合理的方式,通過緊湊的神經(jīng)電路近似多項式核,并通過在神經(jīng)形態(tài)芯片Loihi 2上實現(xiàn)它來提供概念驗證演示。
多項式核機器和多項式回歸是機器學習中廣為人知且有用的工具。文獻11、12中的早期結(jié)果以及我們的結(jié)果通過明確地將回聲狀態(tài)網(wǎng)絡(luò)與多項式核聯(lián)系起來,豐富了回聲狀態(tài)計算網(wǎng)絡(luò)的工具庫。Volterra級數(shù)與多項式核回歸之間的理論聯(lián)系(43)進一步支持了使用這些表示來學習動態(tài)系統(tǒng)的觀點。我們的方法基于機器學習文獻中關(guān)于用隨機表示近似核機器的經(jīng)典工作(19、20),是合理化的。標準的核機器避免了計算所有高階特征的指數(shù)成本,但仍具有與數(shù)據(jù)點數(shù)量平方相關(guān)的成本(25)(“通過多項式核機器實現(xiàn)隱式表示”部分)。相比之下,我們使用隨機分布式表示的多項式核,這些表示捕獲了與顯式形成特征映射相同的相似性結(jié)構(gòu),但以一種更為簡潔的“壓縮”表示(“隨機表示的核近似保證”部分)。這種方法的一個關(guān)鍵優(yōu)勢是,與顯式形成多項式特征相比,前者將多項式特征“疊加”存儲(18),所需的維度比后者顯式表示所需的維度要少。這種壓縮的代價是分布式表示是近似的:分布式表示恢復的相似性核只是真實核的一個噪聲版本。這種噪聲的大小作為維度的函數(shù)可以使用測度集中理論精確量化(19、20),并且實現(xiàn)小的近似誤差所需的維度與顯式表示特征所需的維度相比是適度的。這一理論分析支持了我們的實證發(fā)現(xiàn),即所提出的方法可以用更小的維度進行更準確的預測(圖4)。
關(guān)于隨機核近似的早期理論工作留下了如何在計算硬件上最好地實現(xiàn)拼接和張量積的問題。我們的方法通過利用向量符號架構(gòu)(16-18、30)來填補這一空白,這是一種用于形成組合分布式表示的代數(shù)、保持維度的框架。向量符號架構(gòu)的綁定和疊加操作分別對應(yīng)于拼接和張量積的近似表示(32)。我們的方法指出,兩個模式——存儲緩沖區(qū)和高階多項式特征——可以組合成特征空間,并整合成兩個神經(jīng)網(wǎng)絡(luò)(參見文獻44關(guān)于在單一網(wǎng)絡(luò)內(nèi)提出替代方案的內(nèi)容)。對于第二個模式(“軌跡的隨機分布式表示”部分),我們展示了遞歸向量綁定對應(yīng)于回聲狀態(tài)存儲緩沖區(qū)中時間點的高階特征的計算。此外,我們提出一個遞歸連接的Sigma-Pi神經(jīng)元網(wǎng)絡(luò)(13、45)可以實現(xiàn)遞歸綁定(“用于張量積和綁定的Sigma-Pi神經(jīng)元網(wǎng)絡(luò)”部分)。盡管Sigma-Pi神經(jīng)元是一個理想化的模型,但已有實驗證據(jù)表明單個神經(jīng)細胞具有類似乘法的非線性(46)。
在預測動態(tài)系統(tǒng)(“CPU上的實驗”部分)方面,我們方法的性能要么優(yōu)于要么等于乘積表示、回聲狀態(tài)網(wǎng)絡(luò)和多層感知器基線。此外,它通過使用更少的維度來提高乘積表示的性能,同時匹配性能(例如,圖4b)。或者,可以通過適度增加維度以容納更高階的特征來實現(xiàn)更高的性能(圖4c)。這些結(jié)果強調(diào)了維度作為所提出方法的可調(diào)超參數(shù)的作用。請注意,這是在乘積表示方案的超參數(shù)(即,延遲狀態(tài)的選擇、多項式特征的階數(shù)和正則化參數(shù))(12)之外引入的唯一額外超參數(shù)。正如圖4的結(jié)果所示,隨機表示的維度不需要廣泛的調(diào)整。一個簡單的啟發(fā)式方法是最初使用乘積表示中的特征數(shù)量,這是一個通常可以在實踐中減少的保守估計。因此,與乘積表示方案相比,所提出的方法對超參數(shù)搜索空間的引入最小。在實踐中,隨著分布式表示維度的增加,預期性能會提高。維度是控制模型性能和資源效率之間權(quán)衡的一種方式。
為了生成高效的神經(jīng)形態(tài)綁定實現(xiàn),我們利用了如何用Sigma-Pi神經(jīng)元網(wǎng)絡(luò)來計算分布式表示。我們進一步探索了隨機連接的Sigma-Pi網(wǎng)絡(luò)(補充材料S-III),并在“用于張量積和綁定的Sigma-Pi神經(jīng)元網(wǎng)絡(luò)”部分討論了不同VSA模型的權(quán)衡。重要的是,這種組合分布式表示可以通過遞歸連接的神經(jīng)元網(wǎng)絡(luò)來計算,這進一步受益于神經(jīng)形態(tài)硬件加速。我們在Loihi 2神經(jīng)形態(tài)芯片(15、39)上實現(xiàn)了稀疏塊碼(32、36)(“神經(jīng)形態(tài)硬件上的實驗”部分),這在需要的突觸連接數(shù)量上具有優(yōu)勢。值得注意的是,由神經(jīng)形態(tài)實現(xiàn)計算的表示非常接近其CPU對應(yīng)物(圖5)。預計這些發(fā)現(xiàn)將進一步推動神經(jīng)形態(tài)計算領(lǐng)域內(nèi)開發(fā)受神經(jīng)啟發(fā)的算法、電路和應(yīng)用的進步。
方法 高階特征的乘積表示
在“任務(wù)和實驗配置”部分中,有關(guān)預測Lorenz63系統(tǒng)的經(jīng)驗實驗的報告可在補充材料S-IV中找到,該實驗比較了乘積表示和相應(yīng)的核機器。從公式(15)可以看出,核機器的大小取決于訓練時間點的數(shù)量 r,而不是顯式構(gòu)建的乘積表示的維度。一方面,在核的特征映射具有較大維度的情況下,這可能是有益的;而另一方面,對于大規(guī)模數(shù)據(jù)集,這可能是一個問題。后一個問題促使文獻25中提出了一個開創(chuàng)性的結(jié)果,建議使用隨機表示來近似某些核函數(shù)。
具有綁定的高階特征的隨機表示
這是可能的,因為綁定和置換操作可以分配到疊加之上,因此公式(18)可以展開如下:
隨機表示的核近似保證
正如我們在“軌跡的隨機分布式表示”部分(以及“具有綁定的高階特征的隨機表示”部分)中提到的,我們介紹的嵌入方法可以被解釋為生成多項式核的近似特征映射。實際上,當綁定操作符是逐分量乘積時,這種方法與文獻19中關(guān)于近似多項式核的著名方法一致。在本節(jié)中,我們將更正式地推導出其他綁定操作實現(xiàn)的核近似特性。
由于關(guān)于回聲狀態(tài)計算的文獻非常廣泛,我們在這里不詳細介紹(可參考文獻4、40等),但為了完整性,我們提供了用于實驗評估基線的回聲狀態(tài)網(wǎng)絡(luò)的回聲狀態(tài)動態(tài)演變方程:
任務(wù)和實驗配置
任務(wù)和特征空間的配置為了評估特征空間的分布式表示,并將其與乘積表示進行比較,我們首先遵循了文獻12中的實驗方案,該方案涉及三個任務(wù),并且包括了一個在文獻38中被證明對乘積表示具有挑戰(zhàn)性的額外任務(wù),以及一個涉及許多輸入通道的動力系統(tǒng)的任務(wù)。對于所有任務(wù),輸出矩陣 是通過嶺回歸根據(jù)公式(9)或(14)獲得的。
第一個和第五個任務(wù)是利用數(shù)值積分生成的由Lorenz在1963年開發(fā)的系統(tǒng)的時間序列設(shè)計的(50)。該系統(tǒng)包括三個耦合的非線性微分方程(稱為Lorenz63):
第四個系統(tǒng)是Kuramoto–Sivashinsky系統(tǒng),它被用來引入并行儲層計算方案。該系統(tǒng)描述了一個在空間中擴展的系統(tǒng)的振動函數(shù)的緩慢變化,其基于四階偏微分方程:
原文鏈接: https://www.nature.com/articles/s41467-025-55832-y
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.