今年春節,茶余飯后討論最多的除了春節檔這幾部電影,一定屬春節前“橫空出世”的DeepSeek了。在苛刻的客觀條件下,一家在杭州的企業開發的AI大模型,竟然實現了近似于GPT-4o大模型的效果。這件事震驚了全球AI圈,其中最讓人震驚的是DeepSeek的深度思考模式,面對問題它可以自己摸索推理,就像是人一樣在做題,沃頓商學院教授伊桑·莫利克(Ethan Mollick)感慨說,目睹R1第一人稱的思考過程,你不能不強烈感覺它是一個人……
在震驚的同時,許多網友也對AI是否會取代人類感到擔憂。人類對DeepSeek等人工智能系統具備深度思考能力的擔憂,本質上是技術與人性的深層碰撞。這種焦慮不僅源于對技術失控的恐懼,更折射出人類對自身獨特性的捍衛與對未知邊界的迷茫。
這種技術恐懼的背后,實則暗含著人類文明的終極叩問:當機器不僅能計算,更能理解、創造與反思時,人類究竟是迎來了認知解放的普羅米修斯之火,還是親手打開了消解自身存在意義的潘多拉魔盒?這種兩難困境,恰恰映照出技術革命時代人類對自身定位的深刻焦慮與哲學思辨。
在《人的消逝》中,作者對此類問題作了深刻的討論,試圖在科技一往無前的當下,喚醒“人何以為人”的意識,唯愿科技與人文,各執半輪明月。
摘編自《人的消逝》,有刪減
文 | 熊培云
圖 | Unsplash
AI與程序性欲望
18世紀,伴隨著理性主義的攻城略地,人也被解構成一個物件,成為理性分析的對象。法國醫生、哲學家拉·梅特里在《人是機器》中徹底去除了人的神性與心靈:“人并不是用什么更貴重的料子捏出來的;自然只用了一種同樣的面粉團子,它只是以不同的方式變化了這面粉團子的酵料而已。”如果要拉·梅特里回答“人是什么”,他會說“人就是機器”。而人與動物的區別,也不過是人更像巨大的鐘表,被制作得精細巧妙而已。作為一種純粹的物質的存在,人的精神也是一種物質現象,根本不存在超出物質之外的心靈現象,心靈也不過是一架物質的機器而已。聲音、圖像、味道等通過人的感官傳達到大腦里,大腦就形成了各種印象,思想就是對這些印象的綜合結果。此外,影響人類的外在因素,比如大地、天空、森林與河流等也都是一堆物質。
盡管許多人并不同意拉·梅特里的判斷,不過隨之而來的一個問題卻很值得思考——既然人的思維需要通過物質來完成,那么物質是否能夠思考?當我們做夢,在完全失去對自我的意識時,是物質在做夢,還是我們在做夢?如果大腦活動就是發生在無數腦神經之間的電流反應,那么這個浩瀚的宇宙是否也可能通過無數的電流反應而完成思考?就像玻爾茲曼大腦(Boltzmann brain)所描繪的那樣,在低熵狀態下宇宙中飄浮著無數孤單的大腦。
欲望是什么?這個問題同樣令人疑惑。如果說人只是一堆物質,那么某人對某物的欲望就是一堆物質對另一堆物質的正反饋;而某人對某物的憎惡則是一堆物質對另一堆物質的負反饋。不過這種所謂物質之間的正反饋活動,顯然并不像萬有引力或者磁力那樣清晰而且有規律可循。
機器有沒有意識?笛卡兒認為機器能夠與人互動,但不會像人一樣做出合適的反應。而狄德羅認為如果一只鸚鵡可以回答一切問題,那么它就存在智慧。而拉·梅特里直接認為人就是機器。1950年,計算機科學與人工智能之父阿蘭·圖靈做了一次試驗:如果一臺機器能夠與人類展開對話(通過電傳設備)而不能被辨別出其機器身份,那么就可以稱這臺機器具有智能。這一年,圖靈發表了他劃時代的論文,預言了人類創造智能機器的可能性。
在這場被后世稱為“圖靈測試”(TuringTest)的著名試驗中,表面上機器只是被選擇,并不賦予意義,但在被執行的程序里,意義自始至終是存在的。因為它本身就是一套意義系統,而且是一套嚴密的遵循因果律的系統。時至今日,機器已經在智力問答賽上戰勝了此前從未有過敗績的人類選手,阿爾法狗打敗了世界圍棋冠軍,而且越來越多的人工智能開始替代人類的工作,包括工廠里的大部分工人、銀行出納、超市收銀員、辦公室職員、司機,甚至包括律師、記者和醫生。
愛因斯坦說:“智能的真正標志不是知識,而是想象。”如果說想象力從本質上只是一種發散性思維的能力,對于智能機器人而言,它是一道難以逾越的鴻溝嗎?沒有想象力的智能只是自動化,但它一樣可能被一部分有想象力的人所惡意利用。
許多科幻小說和電影都在探討人工智能的覺醒。有的認為人工智能不會擁有人的意識,有的則認為其有可能進化出類似于人的意識。在沒有徹底弄清楚人的意識以及欲望因何而來之前,相關討論就會顯得并無實質意義。
在接著討論人工智能的危險時,讓我們先觀察一款名叫“貪吃蛇”(Snake)的電腦游戲。該游戲最早可以追溯到20世紀70年代。在游戲中,玩家操控一條像蛇一樣細長的直線,且只能操控蛇的頭部朝向(上下左右),它會不停前進,一路拾起所觸碰之物(俗稱“豆”),并要避免觸碰到自身或者其他障礙物。每次“貪吃蛇”吃掉一樣食物,它的身體便增長一些。吃掉一些食物后,蛇的移動速度逐漸加快,讓游戲的難度漸漸變大。
由于是電腦游戲,沒有誰會把這條變動的直線當作蛇,更不會把它吃食的動作當作一種欲望的滿足。然而,如果這是一條在路上爬行的實體機器蛇,程序設計讓它見到任何符合某種指定形狀與顏色的東西(假定這一特殊物體名為“紫色β”)就選擇吞下,那么這種“機械式欲望”或者“指令式欲望”,在客觀效果上與人和動物的欲望有什么本質區別呢?一個青春年少的男性見到漂亮女性的胴體會在生理上起反應,流露出某種欲望;一只饑餓的貓見到老鼠時便會想去抓住它,這也是一種欲望。性心理學家和動物學家會將這兩種現象歸于動物的本能,它都不是理性思考的結果,而是被預先植入的“原欲”,如同機器蛇捕食“紫色β”。在此意義上,如果程序員為人工智能設置絕對指令“阻止任何針對自己的破壞”,那相當于未知的造物主為人類暗藏了弗洛伊德所謂的“生本能”。當一部機器有了求生欲望的時候,它便有了靈魂。
而如果程序員同時給人工智能輸入另一條絕對指令“殺死所有擋在你面前的人”,那么這又相當于“死本能”了。除此之外,程序員還可以授權人工智能為自己增加絕對指令。接下來可能就是弗蘭肯斯坦的科學怪人反叛,人工智能徹底失控。換言之,對于人類來說,人工智能的危險首先并不在于最終它們是否會有人類的意識,而在于這種“植入式欲望”會不會傷害人類,以及他們會不會自動生成“指令性欲望”。誰能說人的情欲不是造物主為了人類的繁衍以及抵抗空虛而植入的呢?
人之所以有精神上的痛苦,也是因為身上背負了太多的絕對命令,包括自我保全與求生的本能。人與人工智能的區別或許只在于,對機器而言絕對命令是算法,而對人來說是本能或意義。欲望或許只是幻象,如果在這方面人與人工智能等同,亦不過是有關欲望的兩種幻象的重疊。
相同的道理,人工智能也可被植入“程序性恐懼”,但所有這一切終歸都是變量,所孕育的是人類生活巨大的不確定性。
可持續的價值創造
在瑪格麗塔·帕加尼和勒諾·尚皮翁合著的《創造長期價值的人工智能》一書中特別探討了以人為中心的人工智能系統如何在組織內部創造價值,并將其區分了3個主要組成部分,包括道德價值、社會價值和商業價值。自動駕駛技術后臺,仍不得不安排大量人工,以便在必要的時候遠程干預。2024年7月,蘿卜快跑的“后臺駕駛”引發熱議,也說明該技術目前所遇到的尷尬境地。
可想而知的是,對于初級人工智能來說,那些死記硬背的東西是最簡單的,而真正的挑戰在于“覺醒”后的人工智能有著怎樣的價值觀和創造性。而這些內容,尤其在價值觀方面,對于人類來說也是一個難題。洞穴奇案、電車難題……就像人們熱衷討論的正義一樣,不同立場會有不同版本的正義論。
自古以來,人類許多血流成河的悲劇并非總是圍繞饅頭和枕頭展開,更多情況下可能只是觀念的沖突。即使今天科學昌明,看看中東如何冤冤相報、亂成一鍋粥就知道人類的境況了。在此條件下,如何指望人工智能秉持某種眾人滿意的價值觀?當人們幻想未來的人工智能能夠服從人類的命令時,卻忘了“人類并未形成”這個事實。至少到現在為止,人類仍是一個可以互相判處死刑、互相消滅的生物群體。即使現在基本上告別了同類相食,也不能保障此類事件在某種殘酷條件下不再發生。
《人的消逝》
作者 熊培云
出版日期 2024.12
當當購書鏈接
博庫購書鏈接
文軒購書鏈接
編輯推薦
人工智能正在打開潘多拉魔盒。事實上,每一次劃時代的技術浪潮,都粘滿了“盲目樂觀”的羽毛。原子彈雖然結束了二戰,但也形成了對人類存在的巨大威脅;互聯網雖然極大地拓展了人類的生活邊界,但越來越多的人反而經歷著時空坍縮;人工智能雖然使得機器變得越來越人類友好,但人類反而像是淪為了機器的附庸……
本書中,熊培云以原子彈為思緒的起點,進而延展到互聯網構建的新型文明,及至近年來欣欣向榮的人工智能,系統、廣闊地分享了自己近年來的思考。試圖在科技一往無前的當下,喚醒“人何以為人”的意識;唯愿科技與人文,各執半輪明月。
熊培云
熊培云,1973 年生于江西永修,畢業于南開大學、巴黎大學,主修歷史學、法學、傳播學與文學。曾任《南風窗》駐歐洲記者,《新京報》首席評論員。香港大學、東京大學、牛津大學訪問學者,“理想國譯叢”創始主編委員之一。現執教于南開大學。
↓ 點擊名片,關注浙江人民出版社↓
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.