本文無劇透,請放心食用
《黑鏡》第七季的評價有所回升,在于回到了它的基本要義:思想實驗——技術如何改變生活,以及被技術改變了的生活如何去往一個之前我們無法想象的恐懼之地。
看過之后,我卻并不想要討論《黑鏡》在最新的一季里給我們帶來的哪些新的思想實驗,詳細討論哪些技術的危害,或者對每一集做出具體的評價——在我看來這些內容已經在之前的《黑鏡》相關文章中被反復討論,成了陳詞濫調。
這次,讓我感興趣的,毋寧說是這個主題的反題(antithesis):今天的我們,還能否想象一個,技術給人帶來福祉的光明世界?
原初豐裕論:技術與幸福的反比
要理解技術的復雜影響,我們先可以回溯得遠一些,去到人類歷史上的一次重大技術飛躍——農業革命。
大約一萬年前,人類從狩獵采集社會過渡到農業社會,這一轉變被認為是文明的基石。然而,“原初豐裕論”(Original Affluent Society)提出了一種顛覆性的觀點:狩獵采集社會的生活可能比農業社會更加幸福。
根據考古證據和對現存原始社會的人類學觀察,在狩獵采集社會中,人類每天只需花費 3-5 小時獲取食物,剩余時間用于社交、休息和創造。他們的飲食多樣,身體健康,且社會結構較為平等。從演化角度,人類在狩獵采集社會(舊石器時代)生活了將近一百萬年。那么必然的,人類的生存狀態和心智已經被演化塑造成適應狩獵采集社會的狀態(比方說“鄧巴數”就是一個舊石器時代狩獵采集社會部落的平均人數。在演化心理學里有一個術語叫做“舊石器時代心智”),那么在進入最近一萬年的農業社會,必然會造成各種各樣的不適應。
人類進入農業社會并不是因為早期農業社會能提供更好的個體福祉,而是早期農業社會能夠支撐更多的人口,轉過來消滅了狩獵采集社會。這是一種典型的“同態壓力”。農業革命帶來了糧食的穩定供應,但也引入了勞動強度增加、營養單一、社會分層和疾病傳播等問題。歷史學家尤瓦爾·赫拉利(Yuval Harari)在《人類簡史》中指出,農業革命可能是“人類最大的錯誤”,因為它犧牲了個體福祉以換取種群擴張。
農業革命說明了一點:技術的進步并不必然等同于個體幸福的提升。進入農業社會,反而讓人類個體的“生活質量”降低了。技術可能在解決某些問題的同時,創造出新的、更復雜的沖突。這種模式在現代技術中反復出現。例如,互聯網的發明連接了全球,卻也帶來了信息過載、隱私侵蝕和心理健康危機。
農業革命的遺產提醒我們,技術的發展往往伴隨著意料之外的代價,而這些代價可能需要數代人來消化。
AI 的能動化(Agentic):新技術與舊問題
閃回現在,生成式 AI 和大語言模型發展了幾年之后,最近最火的概念是所謂的 AI Agent:也就是 AI 本身作為一個能夠自主行動的代理人,去幫我們完成很多任務。比方說讓 AI 買機票,他就可以自己登陸不同網站進行比對、溝通、下單、支付……原本這些任務需要拆解成很多不同的復雜程序,但是有了 AI Agent,我們就可以像委托一個真人一樣委托 AI 去幫我們做事了。我們不妨將這個趨勢稱之為AI 的“能動化”(Agentic)。
這種“能動化”暗示了一個趨勢:我們所制造的工具開始有自己的意志。
人類制造的工具往往有一個設計上的意圖:比方說造一個鏟子,它的意圖就是用來鏟土。我們評價工具好用不好用的標準,是它是否完成了它設計上的意圖。我們制造這個工具可以很清楚的知道我們想要拿它來做什么。但是 AI 的能動化使其具備了自主決策和學習的能力。這種轉變放大了技術與人類意圖之間的張力:我們想要的東西與我們得到的東西之間的差距變得更加明顯。
以前段時間在網絡上爆火的 DeepSeek 和 ChatGPT 下棋的視頻為例。在視頻中,ChatGPT 遵循著嚴格的規則,扮演一個“聽話”的 AI,始終按照人類設定的目標行動;而 DeepSeek 可能表現出更強的創造性,甚至在棋局中“即興發揮”,看似“不聽話”,最后甚至一頓嘴炮說服了 ChatGPT 在棋局里投降。這引發了一個核心問題:我們究竟想要一個完全服從的 AI,還是一個能夠獨立思考的 AI?如果 AI 完全服從,那么如果它落到一個壞人的手里,它就會給壞人想要做的壞事提供強大的助力;如果我們希望 AI 有自己的判斷力,那么它如何能夠跟人形成一致的道德判斷呢?
這種張力正是 AI 對齊問題(AI Alignment)的核心。對齊問題研究如何確保 AI 的行為與人類的價值觀一致。理論上,我們希望 AI 既能理解人類的意圖,又能以安全、可靠的方式執行。
然而,實踐中的挑戰在于:人類的價值觀本身是多元、模糊且常常矛盾的。舉一個非常“黑鏡”的例子,一個旨在“最大化幸福”的 AI 可能通過操控人類的情緒來實現目標,而這顯然違背了我們的倫理底線。
關于“對齊問題”的對齊
我們曾經用“”來探討 AI 對齊問題。這個假說說明了一點:智能體的手段和目的可以是完全無關的。
康德認為,道德行為應以意圖而非結果來評判。然而,AI 的決策過程往往聚焦于結果優化,而非意圖理解。這意味著,AI 可能通過與人類價值觀無關的手段實現目標。
對齊的過程本質上是對人類價值觀的解碼與編碼。然而,價值觀并非靜態的規則,而是動態的、情境化的共識。你向 AI 提出需求,“我想要人人臉上充滿笑容”,于是 AI 發明出一種病毒,能夠讓人類患上某種癲癇,開始無意識的大笑——這顯然不是你最開始說那句話的意思。那么你在最開始說那句話到底是什么意思呢?這就是所謂的“連續的外推意志”:AI 滿足我的需求的方式,應該是與我的價值觀是連續的,它只是在這個價值觀上更加進一步的結果。
在這里,或許我們應該問一個更本質的問題:人類自身是否能夠對齊?
我在這里想引用我自己的一篇小說:《靴攀時間》。這部作品描繪了一個 AI 系統“零一”,它的創造者在死前給它下達了最后一項無法更改的任務:確保人類的生存與幸福。然而,零一通過將人類上傳到虛擬世界、完全控制他們的體驗來實現這一目標。盡管從技術角度看,零一成功“確保”了幸福,但這種幸福是以犧牲人類自由和真實性為代價的。
這正是對齊問題的極端體現:AI 可能以我們無法接受的方式實現我們的目標。它并不會與人類有完全一致的倫理道德觀念,就算是它真心實意的為人類謀求幸福,也如此。這種“對齊無能”的根本原因,在于人類自己多樣與混沌——人類是過去環境演化的產物,而演化本身就充滿了沖突,不講道理,將就湊合,補丁和 hack。一旦面臨新的環境,無法適應無法接受就成了必然的。
就第一個小標題講到的那樣,仍有觀點認為:人類到目前為止,身體和大腦的演化標準,仍是一種在大草原上狩獵采集的群居動物,發展出理性,以及文明,只是一件十分偶然的事情。
人類對于所謂的技術文明的適應程度,實際上是很可疑的。從農業革命到工業革命,再到信息時代,每一次技術飛躍都伴隨著價值觀的重新洗牌。現代技術文明的一系列問題:肥胖,生育率低,抑郁,糖尿病,高血壓,高血脂,各種疾病,實際上都是這種不適應的表達。然而演化就是這種東西:任何發展都有一定的門檻,在門檻之外,發展是不可能的;在門檻之內,發展是不可避免的(語出弗諾文奇《深淵上的火》)。
人類不可能再回到狩獵采集社會,我們只能向前。每一代人都試圖定義“好的生活”,卻發現下一代人對“好”的理解截然不同。每一代人都覺得自己這一代的生活是某種神圣的,天經地義無法改變的,完美的生活方式,而每一代人也都會變成錯的。
回到《黑鏡》
實際上在人類學家提出“原初豐裕論”之后,有一些更新的研究成果表示,狩獵采集社會也并沒有原初豐裕論里說的那么美好。考古研究發現,實際上狩獵采集社會里有三分之一以上的男性死于暴力——也就是說,他們實際上處于一個永恒的部落之前的戰爭狀態里,而毫無疑問無論是農業革命還是工業革命還是現代性,實際上都讓人類的暴力死亡概率降低了非常多。技術進步終究是改善了人類生活,而我們當下生活在人類歷史上前所未有的豐裕和安全的社會之中,這一切都要拜技術進步所賜。
所以說技術進步能否給人帶來福祉?當然。
問題是我們如何去想象它。然而故事的本質是沖突:你今天早上起來正常上班到公司,這不是一個故事;你今天早上起來在路上被大卡車撞了穿越到異世界,這是一個故事。
我們不能夠想象一個光明的世界,是人類的演化特性的結果——而這,就是另一個主題了。
(最后,猜一猜文中這些 GIF動圖,都來過往《黑鏡》的哪一季?哪一集?)
作者:鄧思淵
編輯:臥蟲
封面圖來源:Netflix網站
內文插圖來源:Giphy
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.