導(dǎo)語(yǔ)
合作為何無(wú)處不在?從狼群圍獵到國(guó)際減排,從地鐵排隊(duì)到開源社區(qū),自私的本能似乎難以阻擋集體付出的腳步。在追逐個(gè)人利益的世界里,個(gè)體為何甘愿為群體出力?演化博弈理論正如一把鑰匙,幫助研究人員破解這一古老悖論。美國(guó)數(shù)理生物學(xué)家 Martin Nowak 創(chuàng)始性地利用其揭示了群體合作的奧秘,其成果刊登在《Science》上,并在學(xué)術(shù)界引起了強(qiáng)烈反響。如今,這一研究領(lǐng)域仍在不斷拓展,其意義遠(yuǎn)超單純解釋生物行為。重要的是,演化博弈理論不僅照亮了群體行為和社會(huì)結(jié)構(gòu)的深層邏輯,還為人工智能、平臺(tái)治理乃至大國(guó)博弈等前沿領(lǐng)域提供了科學(xué)指引。
關(guān)鍵詞:演化博弈,復(fù)雜系統(tǒng),群體行為,強(qiáng)化學(xué)習(xí)
謝凱丨作者
張江丨審校
1. “我?guī)湍悖皇且驗(yàn)槲疑怠薄献鞯你U?/strong>
你有沒(méi)有遇到過(guò)這種情況:明明是團(tuán)隊(duì)任務(wù),大家卻一開始都按兵不動(dòng),等著最后幾個(gè)人熬夜“背鍋”;或者你一個(gè)人精心維護(hù)共享文檔,別人卻從來(lái)不補(bǔ)充更新。
你或許也曾聽過(guò)這樣的感慨:“我這么講義氣,結(jié)果還不是被人當(dāng)冤大頭?”
但奇妙的是,在很多時(shí)候,我們確實(shí)還是會(huì)選擇合作。比如地鐵上自覺(jué)排隊(duì)、野外露營(yíng)時(shí)大家輪流做飯,甚至大到國(guó)際組織中的減排協(xié)議。并且,這種現(xiàn)象即使在生物界也屢見不鮮:狼群合作圍獵、螞蟻協(xié)作搬家、海豚集體趕魚等。可問(wèn)題是,合作意味著要付出成本,而收益往往被別人共享,這到底值不值?
這個(gè)問(wèn)題其實(shí)背后藏著一個(gè)古老又現(xiàn)代的哲學(xué)與科學(xué)謎題:為什么在自利的驅(qū)動(dòng)下,有些人(或動(dòng)物)卻依然愿意付出?演化博弈理論(Evolutionary Game Theory, EGT)就是為了回答這個(gè)問(wèn)題而誕生的——我們今天要聊的,就是它。
2. 從博弈論到達(dá)爾文:演化博弈到底是啥?
首先來(lái)破個(gè)梗:“博弈”不只是電視劇里的權(quán)謀爭(zhēng)斗,它是一種研究沖突和合作的數(shù)學(xué)方法。
傳統(tǒng)博弈論(Game Theory)由馮·諾依曼(Von Neumann) [1]和約翰·福布斯·納什(John Forbes Nash Jr) [2]等人奠基,假設(shè)玩家都是理性的,并且追求收益最大化。然而,現(xiàn)實(shí)中我們看到的往往是:
有人糊里糊涂參與決策;
有人隨波逐流看別人怎么選;
有人就算吃虧也愿意“做好人”。
Von Neumann(左),來(lái)源:https://en.wikipedia.org/wiki/John_von_Neumann;John Forbes Nash Jr(右),來(lái)源:https://en.wikipedia.org/wiki/John_Forbes_Nash_Jr.
這時(shí)候,生物學(xué)站了出來(lái)。查爾斯·羅伯特·達(dá)爾文(Charles Robert Darwin)的“自然選擇”曾說(shuō):行為是否合理,不取決于是否理性,而在于是否能留下更多后代。基于此,1973年,約翰·梅納德·史密斯(John Maynard Smith)和喬治·普萊斯(George Price)開創(chuàng)性地提出 [3]:如果我們把“策略”看成一種可遺傳的行為特征,不同策略在群體中相互作用并隨時(shí)間演化,就可以用博弈模型來(lái)研究人類和動(dòng)物的行為,甚至推演文明進(jìn)化。
Charles Robert Darwin,來(lái)源:https://en.wikipedia.org/wiki/Charles_Darwin
這就是演化博弈論。它假設(shè)玩家不一定是理性的,而是帶有某種策略傾向的“個(gè)體”;策略的成功不靠深思熟慮,而是通過(guò)“適者生存”原則在群體中獲得傳播并穩(wěn)定存在。換句話說(shuō),一個(gè)策略能否勝出,不看它理論上多“完美”,而看它在與其他策略的較量中能否“活下來(lái)”。
如何描述這種“適者生存”的過(guò)程呢?
演化博弈論引入了一個(gè)核心的數(shù)學(xué)模型——復(fù)制者動(dòng)態(tài)方程(Replicator Dynamics Equation)。它描述了策略如何隨時(shí)間變化,其基本思想非常直觀:如果一個(gè)策略的平均收益(適應(yīng)度)高于整個(gè)群體的平均收益,那么采用該策略的個(gè)體比例就會(huì)增加;反之,如果低于平均收益,則其比例會(huì)減少。例如,在一個(gè)簡(jiǎn)單的雙策略(如合作與背叛)博弈模型中,合作者比例的變化率可以表示為:
其中,x是合作者在群體中的比例,∏C是合作策略的平均收益,是整個(gè)群體的平均收益。
它和傳統(tǒng)博弈論最大的不同在于:玩家不一定理性,但“表現(xiàn)好的策略”會(huì)自然留下來(lái),“不適應(yīng)的策略”被淘汰。
那么,為什么有人會(huì)合作?
演化博弈論的核心在于“策略的演化”。在自私的本能驅(qū)動(dòng)下,合作策略之所以能出現(xiàn),是因?yàn)樗谀承l件下能帶來(lái)更高的生存和繁衍優(yōu)勢(shì)。比如,幫助他人可能換來(lái)回報(bào),從而在群體競(jìng)爭(zhēng)中讓“合作者”更有生存力。這種“自然選擇下的合作”不僅解釋了生物界的互助行為,也為人類社會(huì)的合作現(xiàn)象提供了線索。
3. “合則兩利”沒(méi)那么簡(jiǎn)單:
合作涌現(xiàn)的基礎(chǔ)機(jī)制
我們現(xiàn)在知道了:演化博弈能解釋“為什么有人會(huì)合作”。但真正難的,是回答另一個(gè)問(wèn)題:在不合作更容易獲利的情況下,合作為什么還能出現(xiàn)并穩(wěn)定存在?
這就是演化博弈中的“合作難題”。
經(jīng)典例子:公共物品博弈
想象一個(gè)場(chǎng)景:每個(gè)人都能為公共項(xiàng)目出資(比如村里修水井),但也可以選擇不出錢卻享受成果。
大家都出資,水井修成,皆大歡喜;
你偷懶、別人出力,你白占便宜;
大家都偷懶,水井沒(méi)戲。
這就是“搭便車”問(wèn)題,也是最難解決的合作障礙之一。
來(lái)源:作者創(chuàng)作
合作機(jī)制的探索
研究者發(fā)現(xiàn),要解決合作困境,離不開一些關(guān)鍵機(jī)制。美國(guó)數(shù)理生物學(xué)家馬丁·諾瓦克(Martin Nowak)提出的五種機(jī)制為促進(jìn)合作的涌現(xiàn)奠定了基礎(chǔ) [4]:
Martin Nowak,來(lái)源:https://en.wikipedia.org/wiki/Martin_Nowak
1)直接互惠(Direct reciprocity):我?guī)湍阋淮危麓文阋惨獛臀摇?/p>
這種機(jī)制也被稱為“以牙還牙”。它適用于重復(fù)互動(dòng)的場(chǎng)景:我今天幫你,期待你明天回報(bào);你若坑我,我下次就不幫你。這種機(jī)制簡(jiǎn)單高效,建立了一種“可預(yù)期的回饋體系”,特別在長(zhǎng)期關(guān)系(如合伙創(chuàng)業(yè)、科研團(tuán)隊(duì))中能夠促進(jìn)信任與合作。
現(xiàn)實(shí)案例:朋友之間互請(qǐng)吃飯、鄰里之間輪流照看小孩,這些都是典型的直接互惠。
2)間接互惠(Indirect reciprocity):好人出名,合作更易。
如果說(shuō)直接互惠是“你幫我,我?guī)湍恪保情g接互惠就是“你幫了他,我愿意幫你”。 這就引入了“聲譽(yù)”這個(gè)重要中介。你幫別人的行為被第三方看到并記住,他們會(huì)認(rèn)為你是個(gè)值得合作的人,從而在未來(lái)與你建立合作關(guān)系。
現(xiàn)實(shí)案例:淘寶賣家靠“五星好評(píng)”吸引顧客,求職者靠推薦信增強(qiáng)可信度,本質(zhì)上都依賴于間接互惠的傳播力。
3)空間選擇(Spatial Selection):熟人圈里合作更穩(wěn)。
人類社會(huì)不是完全開放的,而是由小圈子構(gòu)成的“關(guān)系網(wǎng)”。在這樣的小圈子中,合作更容易維持。一方面,信息傳播更快,聲譽(yù)的反饋更直接;另一方面,背叛者更難“換馬甲”。網(wǎng)絡(luò)結(jié)構(gòu)不僅影響合作,還決定合作是“星火燎原”還是“悄然凋零”。研究顯示,在小世界網(wǎng)絡(luò)、分層社區(qū)等網(wǎng)絡(luò)結(jié)構(gòu)中,合作更易擴(kuò)散。
現(xiàn)實(shí)案例:公司之間貿(mào)易往來(lái),往往優(yōu)先選擇與自己“關(guān)系網(wǎng)”中的企業(yè)進(jìn)行合作。
4)群體選擇(Group Selection):群體競(jìng)爭(zhēng)促合作。
前三種機(jī)制關(guān)注個(gè)體間合作,而群體選擇著眼于群體間競(jìng)爭(zhēng)。即使個(gè)體層面合作吃虧,但合作群體若在競(jìng)爭(zhēng)中更強(qiáng)大,這種策略就能存活。這是一種“宏觀演化邏輯”:自私個(gè)體可能短期占優(yōu),但合作群體長(zhǎng)期勝出。
現(xiàn)實(shí)案例:抗戰(zhàn)時(shí)期,團(tuán)結(jié)協(xié)作的游擊隊(duì)常能擊敗人數(shù)眾多卻無(wú)信任的軍閥部隊(duì)。
5)親緣選擇(Kin Selection):血濃于水助合作。
在親緣關(guān)系中,個(gè)體更愿幫助血親,即使?fàn)奚约豪妗_@是因?yàn)閹椭H屬能增加共同基因的傳播機(jī)會(huì)。親緣選擇解釋了家庭、家族或部落中合作的高頻出現(xiàn)。
現(xiàn)實(shí)案例:父母無(wú)私養(yǎng)育子女、兄弟姐妹互助,都是親緣選擇的體現(xiàn);在動(dòng)物界,蜜蜂工蜂為保護(hù)蜂后和幼蜂而犧牲生命也是如此。
來(lái)源:https://www.science.org/doi/abs/10.1126/science.1133755#core-collateral-purchase-access
4. 演化博弈遇上AI:智能體如何學(xué)會(huì)合作?
隨著多智能體系統(tǒng)的發(fā)展(比如機(jī)器人集群、虛擬人協(xié)作、智能體博弈策略優(yōu)化等),我們?cè)絹?lái)越需要結(jié)合人工智能理解并模擬人類社會(huì)中的合作和競(jìng)爭(zhēng)行為。要做到這一點(diǎn),僅靠傳統(tǒng)的模型和策略規(guī)則遠(yuǎn)遠(yuǎn)不夠,強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)正逐漸成為研究“群體智能演化”的關(guān)鍵工具。
強(qiáng)化學(xué)習(xí):智能體的“試錯(cuò)”成長(zhǎng)之路
強(qiáng)化學(xué)習(xí)讓智能體通過(guò)與環(huán)境互動(dòng)“試錯(cuò)”,學(xué)習(xí)最佳策略。簡(jiǎn)單來(lái)說(shuō),它就像教智能體玩游戲:
1. 每一步行動(dòng)后會(huì)獲得“獎(jiǎng)勵(lì)”或“懲罰”;
2. 智能體嘗試不同策略,逐漸學(xué)會(huì)最大化長(zhǎng)期獎(jiǎng)勵(lì);
3. 策略更新的核心在于對(duì)未來(lái)收益的估計(jì)與不斷修正。
在演化博弈中,RL被用來(lái)模擬個(gè)體如何在群體中選擇策略,比如在公共物品博弈中決定是否貢獻(xiàn)資源。簡(jiǎn)單來(lái)說(shuō),智能體不再依賴固定規(guī)則,而是利用RL在與環(huán)境的互動(dòng)中不斷“試錯(cuò)”,根據(jù)獲得的獎(jiǎng)勵(lì)動(dòng)態(tài)調(diào)整策略。
這種方法更貼近人類在社會(huì)中的行為:我們通過(guò)經(jīng)驗(yàn)學(xué)習(xí),逐漸找到對(duì)自己和群體最有利的選擇。這使得模擬能更真實(shí)地反映個(gè)體間的學(xué)習(xí)與適應(yīng)過(guò)程。
通過(guò)這種方式,我們不僅能觀察群體合作行為如何涌現(xiàn),還能揭示信任、背叛等復(fù)雜行為的演化規(guī)律。
Q-learning:RL-EGT的入門算法
目前最常用于EGT研究的強(qiáng)化學(xué)習(xí)算法之一是Q-learning [5,6],它通過(guò)學(xué)習(xí)“狀態(tài)-動(dòng)作值函數(shù)”來(lái)判斷當(dāng)前最優(yōu)策略。比如,在群體合作博弈中,Q表記錄著“合作”或“背叛”可能帶來(lái)的回報(bào),智能體根據(jù)Q表選擇回報(bào)最高的動(dòng)作,并通過(guò)不斷更新Q表來(lái)優(yōu)化決策。然而,傳統(tǒng)Q-learning(TQL) 存在一個(gè)常見的問(wèn)題:它容易“過(guò)度樂(lè)觀”,即高估策略的預(yù)期收益。這源自其更新公式:
Q(s,a) ← Q(s,a) + α[r + γ * max Q(s',a') ? Q(s,a)],
其中,
Q(s,a) 表示在狀態(tài) s 下采取動(dòng)作 a 所獲得的預(yù)期回報(bào);
α 是學(xué)習(xí)率,表示預(yù)期回報(bào)的更新幅度;
r 是執(zhí)行動(dòng)作后獲得的即時(shí)獎(jiǎng)勵(lì);
γ 是折扣因子,用于權(quán)衡當(dāng)前獎(jiǎng)勵(lì)與未來(lái)回報(bào);
max Q(s',a') 是在下一個(gè)狀態(tài) s' 中能獲得的最大未來(lái)收益估計(jì)。
這里的“最大值估計(jì)”(max)讓智能體既用 Q 函數(shù)來(lái)選擇動(dòng)作,又用它評(píng)估動(dòng)作價(jià)值。這種“自說(shuō)自話”的機(jī)制往往導(dǎo)致智能體過(guò)于相信某些策略的回報(bào),學(xué)到的行為看似優(yōu)秀,實(shí)則可能偏離最優(yōu)解。
Double Q-learning:更精準(zhǔn)的選擇
最新研究中,中國(guó)學(xué)者Kai Xie與演化博弈著名學(xué)者Attila Szolnoki 教授,首次將Double Q-learning(DQL)算法引入演化模型[7]。其巧妙之處在于使用兩個(gè)獨(dú)立的 Q 表:
一個(gè)Q表負(fù)責(zé)選擇動(dòng)作;
另一個(gè)Q表負(fù)責(zé)評(píng)估該動(dòng)作的價(jià)值。
這種“雙人舞”設(shè)計(jì)避免了TQL中的“自欺欺人”現(xiàn)象——在TQL中,同一個(gè)Q表既選動(dòng)作又估價(jià)值,容易產(chǎn)生偏差。DQL的更新規(guī)則如下:
簡(jiǎn)單來(lái)說(shuō),兩個(gè)Q表輪流更新,一個(gè)選動(dòng)作時(shí)參考另一個(gè)的價(jià)值評(píng)估,從而減少偏差,讓智能體的決策更精準(zhǔn)。
Attila Szolnoki,來(lái)源:https://ieeexplore.ieee.org/author/37090052031
研究表明,相比TQL,DQL 降低了策略偏差,讓智能體更傾向于選擇合作策略,形成穩(wěn)定的合作集群。這種改進(jìn)就像給智能體裝上了“更清晰的眼鏡”,讓它們更準(zhǔn)確地感知群體動(dòng)態(tài)。
TQL和DQL算法對(duì)比。(b)和(d) ,在關(guān)鍵參數(shù)不為0的情況下,在促進(jìn)合作水平方面,DQL整體優(yōu)于TQL算法。來(lái)源:https://www.sciencedirect.com/science/article/pii/S0960077925004114
深度強(qiáng)化學(xué)習(xí):復(fù)雜場(chǎng)景的突破
除了 Q-learning 及其變體,與深度強(qiáng)化學(xué)習(xí)(DRL)相關(guān)的算法也開始在演化博弈中大放異彩。最具代表性的是深度Q網(wǎng)絡(luò)(Deep Q-Network, DQN),它利用深度神經(jīng)網(wǎng)絡(luò)逼近 Q 值函數(shù),能處理高維度、復(fù)雜狀態(tài)空間的博弈場(chǎng)景。最新的研究被發(fā)表在計(jì)算機(jī)頂級(jí)會(huì)議IJCAI [8,9]。
DQN網(wǎng)絡(luò)演化博弈訓(xùn)練框架,來(lái)源:https://arxiv.org/abs/2405.02654
DQN網(wǎng)絡(luò)演化博弈訓(xùn)練框架,來(lái)源:https://arxiv.org/abs/2310.04623
從經(jīng)典的TQL算法,到有效緩解過(guò)估計(jì)問(wèn)題的DQL,再到利用神經(jīng)網(wǎng)絡(luò)處理復(fù)雜環(huán)境信息的 DQN,可以預(yù)見,深度強(qiáng)化學(xué)習(xí)與演化博弈的交叉將在未來(lái)進(jìn)一步深化。這種結(jié)合不僅僅是技術(shù)層面的融合,更是理念上的升華。我們正在見證智能體從最初專注于“如何最大化自身獎(jiǎng)勵(lì)”的階段,逐步邁向能夠理解和實(shí)踐“合作共贏”的新紀(jì)元。這意味著智能體正在從“學(xué)會(huì)贏”走向“學(xué)會(huì)共贏”。
5. 從理論走向?qū)嵺`:
演化博弈的學(xué)科交叉前景
演化博弈理論從生物學(xué)的土壤中萌芽,如今已成長(zhǎng)為一棵覆蓋心理學(xué)、人工智能、社會(huì)學(xué)、經(jīng)濟(jì)學(xué)乃至生態(tài)治理等多個(gè)領(lǐng)域的跨學(xué)科大樹。它不僅揭示了合作的深層邏輯,也為解決現(xiàn)實(shí)世界中的復(fù)雜問(wèn)題提供了實(shí)用工具。
在心理學(xué)[10]領(lǐng)域,演化博弈被用來(lái)解釋信任、利他、懲罰、共情等社會(huì)行為的起源;研究者通過(guò)構(gòu)建博弈模型,探索人類為何會(huì)“做對(duì)他人有利卻對(duì)自己不利的選擇”,甚至將其作為分析群體道德直覺(jué)的工具。
在人工智能[11]領(lǐng)域,演化博弈正逐漸成為多智能體學(xué)習(xí)中的關(guān)鍵理論框架。特別是在無(wú)人駕駛、機(jī)器人編隊(duì)協(xié)同、元宇宙社交與虛擬經(jīng)濟(jì)治理等前沿應(yīng)用中,理解如何激勵(lì)“異質(zhì)智能體”產(chǎn)生持續(xù)穩(wěn)定的合作,比單純提高算法性能更具戰(zhàn)略意義。
在政策治理[12]方面,演化博弈大有可為。在中美貿(mào)易摩擦中,演化博弈能分析關(guān)稅策略的長(zhǎng)期效應(yīng),幫中國(guó)設(shè)計(jì)靈活應(yīng)對(duì)方案;在“一帶一路”中,它能預(yù)測(cè)沿線國(guó)家的合作意愿,助力政策精準(zhǔn)落地。面對(duì)大國(guó)博弈的“囚徒困境”,演化博弈是破解僵局的科學(xué)利器。
在生態(tài)與環(huán)境政策[13]中,它也為氣候協(xié)議、漁業(yè)保護(hù)、污染防治等全球治理難題提供了理論支持。例如,通過(guò)模擬國(guó)家之間“合作減排”與“逃避責(zé)任”的演化博弈,政策制定者能更清晰地看到激勵(lì)機(jī)制的重要性。
未來(lái),隨著大數(shù)據(jù)、深度強(qiáng)化學(xué)習(xí)、群體智能與大模型的發(fā)展,演化博弈不僅將在理論維度不斷深化,也將在更廣泛的實(shí)踐場(chǎng)景中開枝散葉。
正如我們所見,合作從不是理所當(dāng)然,它是自然選擇下的“非理性智慧”,也是人類社會(huì)賴以運(yùn)轉(zhuǎn)的“理性幻想”。從自私基因到群體智慧,在這個(gè)智能重塑世界的時(shí)代,演化博弈用數(shù)字與人性的交融告訴我們:理解合作的本質(zhì),才能真正設(shè)計(jì)出值得信任的世界。
參考文獻(xiàn)
[1]v. Neumann, J. (1928). Zur theorie der gesellschaftsspiele. Mathematische Annalen, 100(1), 295-320.
[2]Nash Jr, J. F. (1950). Equilibrium points in n-person games. Proceedings of the National Academy of Sciences, 36(1), 48-49.
[3]Maynard Smith, J. (1976). Evolution and the Theory of Games. American Scientist, 64(1), 41-45.
[4]Nowak, Martin A. "Five rules for the evolution of cooperation." Science 314.5805 (2006): 1560-1563.
[5]Zheng, G., Zhang, J., Deng, S., Cai, W., & Chen, L. (2024). Evolution of cooperation in the public goods game with Q-learning. Chaos, Solitons & Fractals, 188, 115568.
[6]Tamura, K., & Morita, S. (2024). Analysing public goods games using reinforcement learning: effect of increasing group size on cooperation. Royal Society Open Science, 11(12), 241195.
[7]Xie, K., & Szolnoki, A. (2025). Reputation in public goods cooperation under double Q-learning protocol. Chaos, Solitons & Fractals, 196, 116398.
[8]Ren, T., & Zeng, X. J. (2024). Enhancing cooperation through selective interaction and long-term experiences in multi-agent reinforcement learning. arXiv preprint arXiv:2405.02654.
[9]Ueshima, A., Omidshafiei, S., & Shirado, H. (2023). Deconstructing cooperation and ostracism via multi-agent reinforcement learning. arXiv preprint arXiv:2310.04623.
[10]Conroy-Beam, D., Goetz, C. D., & Buss, D. M. (2015). Why do humans form long-term mateships? An evolutionary game-theoretic model. In Advances in experimental social psychology (Vol. 51, pp. 1-39). Academic Press.
[11]Wu, Y., & Pan, L. (2024). LSTEG: An evolutionary game model leveraging deep reinforcement learning for privacy behavior analysis on social networks. Information Sciences, 676, 120842.
[12]Feng, N., & Ge, J. (2024). How does fiscal policy affect the green low-carbon transition from the perspective of the evolutionary game?. Energy Economics, 134, 107578.
[13]Tilman, A. R., Plotkin, J. B., & Ak?ay, E. (2020). Evolutionary games with environmental feedbacks. Nature Communications, 11(1), 915.
筆者(謝凱)圍繞演化博弈理論發(fā)表的論著
[1]Xie, K., & Szolnoki, A. (2025). Reputation in public goods cooperation under double Q-learning protocol. Chaos, Solitons & Fractals, 196, 116398.
[2]Xie, K., & Liu, T. (2024). The regulation of good and evi promotes cooperation in public goods game. Applied Mathematics and Computation, 478, 128844.
[3]Xie, K., Liu, Y., & Liu, T. (2024). Unveiling the masks: Deception and reputation in spatial prisoner’s dilemma game. Chaos, Solitons & Fractals, 186, 115234.
[4]Xie, K., Liu, X., Wang, H., & Jiang, Y. (2023). Multi-heterogeneity public goods evolutionary game on lattice. Chaos, Solitons & Fractals, 172, 113562.
[5]Xie, K., Liu, X., Chen, H., & Yang, J. (2022). Preferential selection and expected payoff drive cooperation in spatial voluntary public goods game. Physica A: Statistical Mechanics and its Applications, 605, 127984.
作者:
本文為科普中國(guó)-創(chuàng)作培育計(jì)劃扶持作品 作者 | 謝凱 審核 | 張江(北京師范大學(xué)系統(tǒng)科學(xué)學(xué)院教授) 出品 | 中國(guó)科協(xié)科普部 監(jiān)制 | 中國(guó)科學(xué)技術(shù)出版社有限公司、北京中科星河文化傳媒有限公司
復(fù)雜網(wǎng)絡(luò)動(dòng)力學(xué)讀書會(huì)
集智俱樂(lè)部聯(lián)合合肥工業(yè)大學(xué)物理系教授李明、同濟(jì)大學(xué)副教授張毅超、北京師范大學(xué)特聘副研究員史貴元與在讀博士生邱仲普、張章共同發(fā)起 。本次讀書會(huì)將探討:同步相變的臨界性、如何普適地刻畫多穩(wěn)態(tài)與臨界點(diǎn)、如何識(shí)別并預(yù)測(cè)臨界轉(zhuǎn)變、如何通過(guò)局部干預(yù)來(lái)調(diào)控系統(tǒng)保持或回到期望穩(wěn)態(tài)、爆炸逾滲臨界行為的關(guān)鍵特征、不同類型的級(jí)聯(lián)過(guò)程對(duì)逾滲相變的影響有何異同、高階相互作用的影響能否等效為若干簡(jiǎn)單機(jī)制的疊加、如何有效地促進(jìn)人類個(gè)體間的合作等問(wèn)題。
讀書會(huì)計(jì)劃從3月7日開始,每周五晚19:30-21:30進(jìn)行,持續(xù)8-10周。誠(chéng)摯邀請(qǐng)領(lǐng)域內(nèi)研究者、尋求跨領(lǐng)域融合的研究者加入,共同探討。
詳情請(qǐng)見:
1.
2.
3.
4.
5.
6.
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.