最近,正在進行的OpenAI12天發(fā)布會引發(fā)了無數(shù)人的關(guān)注與興奮。
o1模型的正式發(fā)布、視頻生成模型Sora的全面開放,還有專為寫作和編碼項目設(shè)計的Canvas......每天一場的簡短發(fā)布會,引起了大量的熱議。
OpenAI官網(wǎng)上Sora的部分展示
人工智能,未來已來。
關(guān)于這個新新世界,人們充滿無限的期待,但也難免會有不少擔(dān)憂。
著名作家熊培云在最新出版的新書《人的消逝》中,就關(guān)于OpenAI給出了自己的謹(jǐn)慎思考和尖銳警示。
本文選自《人的消逝》一書
《人工智能與奴隸崇拜》章節(jié)
文 | 熊培云
平庸之惡
回望我出生的20世紀(jì)70年代,家里的動力是水牛,被養(yǎng)在離家不遠(yuǎn)的牛欄里。牛的能源是草。而站在今天眺望20年后的未來生活,在我的家里一定會有機器人,而2045年被無數(shù)預(yù)言者定為“奇點”。在這一年,機器人不僅迎來了覺醒,而且機器大腦將超越人類大腦,成為地球上的主宰。
短短幾十年間,我仿佛經(jīng)歷了一部人類簡史。在此期間,有一些年份與事件特別值得記住,如1997年“深藍(lán)”力克國際象棋世界冠軍卡斯帕羅夫;又如2022年OpenAI發(fā)布了一款聊天機器人程序ChatGPT,一石激起千層浪。
在許多人表現(xiàn)出恐懼的時候,人類優(yōu)秀的頭腦表現(xiàn)出來的更多是不屑,或者說是傲慢。他們認(rèn)為人類的大腦具有非凡的創(chuàng)造性,而ChatGPT等人工智能像是一個笨重而粗暴的贗品。著名語言學(xué)家、哲學(xué)家諾姆·喬姆斯基在《紐約時報》發(fā)表了題為“ChatGPT的虛假承諾”的文章。喬姆斯基強調(diào),人工智能和人類在思考方式、學(xué)習(xí)語言與生成解釋的能力,以及道德思考方面有著極大的差異,并提醒讀者如果ChatGPT式機器學(xué)習(xí)程序繼續(xù)主導(dǎo)人工智能領(lǐng)域,那么人類的科學(xué)水平以及道德標(biāo)準(zhǔn)都可能因此降低。喬姆斯基認(rèn)為所有這些看似復(fù)雜的思想和語言,都是由非智能產(chǎn)生的道德冷漠。在這里,ChatGPT表現(xiàn)出某種類似(漢娜·阿倫特所批評的)的“平庸之惡”,充斥著剽竊、冷漠和回避。它以一種超級自動補全的方式總結(jié)了文獻中的標(biāo)準(zhǔn)論點,拒絕在任何事情上表明立場。它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護,將責(zé)任推卸給它的創(chuàng)造者。
與此同時,盲目相信ChatGPT的智能與權(quán)威,完全用它的回答代替自己專業(yè)性和更具針對性的搜索,不啻為以機器的判斷代替自己的判斷,在某種意義上說,這也是一種對人的背叛。有一幅流傳甚廣的漫畫,畫的是人類正沉迷手機,而機器卻在學(xué)習(xí)。
未來的某一刻,機器人在學(xué)習(xí),人類在玩手機。作者 AI 繪制
合成數(shù)據(jù)與哈布斯堡幽靈
相較于諾姆·喬姆斯基所譴責(zé)的“平庸之惡”,人工智能專家兼創(chuàng)業(yè)者加里·馬庫斯則認(rèn)為,如今被硅谷熱炒的所謂通用人工智能充其量只是一種“Rough Draft AI”(粗略的AI草稿),矛頭同樣指向AI的抄襲,還有數(shù)據(jù)合成。
雖然大語言模型看起來很聰明,但是不能檢查自己的工作,也不能創(chuàng)造。馬庫斯至少有一點是對的,那就是人工智能對于人類的價值在于解決問題,而不是制造問題。其在道德上不會為自己的錯誤擔(dān)負(fù)任何責(zé)任。從技術(shù)上說,今天的人工智能是不穩(wěn)定的,在現(xiàn)實中沒有錨,諸如虛假信息、市場操作、誹謗、深度造假、偏見歧視、隱私數(shù)據(jù)泄露、知識產(chǎn)權(quán)侵犯等都會帶來現(xiàn)實風(fēng)險。就最后一點而言,ChatGPT簡直就是無法無天盜取他人創(chuàng)造成果的專家,而且往往做得天衣無縫。更別說過度依賴這樣不可靠的系統(tǒng),甚至將AI工具放到武器系統(tǒng)或者電網(wǎng)之中了。
多年來,谷歌等大公司一直從互聯(lián)網(wǎng)上抓取數(shù)據(jù),用于訓(xùn)練支撐、喂養(yǎng)其所謂的大型語言模型(英文LargeLanguageModel,縮寫LLM)。自從有了互聯(lián)網(wǎng),人類幾千年來的知識與思考成果以及最新的文本、圖像與視頻都變成了這些龐然大物的草料。對此,OpenAI的首席執(zhí)行官薩姆·阿爾特曼曾表示,AI大模型最終應(yīng)該能夠生成足夠高質(zhì)量的合成數(shù)據(jù),以有效地自我訓(xùn)練。然而LLM生成的合成數(shù)據(jù)備受指責(zé),包括在此模式下人類數(shù)據(jù)的枯竭……
與人類的創(chuàng)造性形成鮮明對比的是,合成數(shù)據(jù)并不進行推理。當(dāng)人類大量運用合成數(shù)據(jù),最后的結(jié)果是低質(zhì)量信息帶來“自我中毒”。從表面上看,數(shù)據(jù)的近親繁殖會帶來短暫的虛假繁榮,但最終可能導(dǎo)致該模型的崩潰,就像哈布斯堡王朝因近親繁殖導(dǎo)致自我毀滅一樣。不得不說,這個家族雖然權(quán)傾一時,但回望歷史,它留給這個世界的是一張張鞋拔子臉。
那些合成數(shù)據(jù)并非創(chuàng)造性的,就像把兩本《辭海》相加,它并不真正地生產(chǎn)有用的知識。現(xiàn)在的問題是,合成數(shù)據(jù)占多少比例才不至于讓人類收獲滅頂之災(zāi)?人類如何才能擁有更加健康的“數(shù)據(jù)混血兒”?
奴隸崇拜。作者 AI 繪制
隨機鸚鵡
相關(guān)論文提到LLM已經(jīng)具有了思維鏈條(Chain of Thought)和自發(fā)性地結(jié)構(gòu)涌現(xiàn)(Emergence)。換言之,LLM開始學(xué)會了人類“慢思考”的思維模式,可以基于邏輯推理而非簡單的直覺來回答問題。
不過反對的聲音同樣接踵而至。華盛頓大學(xué)語言學(xué)家艾米麗·本德等人在2021年發(fā)表論文,指出大語言模型并不理解現(xiàn)實世界,它實際上只相當(dāng)于一個“隨機鸚鵡”(stochastic parrot)。隨后具有歧視意味的“隨機鸚鵡”被廣泛引用,并獲美國方言學(xué)會選2023年年度AI詞語,勝過“ChatGPT”和“LLM”。與我們觀察其輸出時的情況相反,LLM只是將其在龐大的訓(xùn)練數(shù)據(jù)中觀察到的語素胡亂拼接在一起,根據(jù)概率生成文本,但不清楚文字背后的任何含義。相較部分人文學(xué)者的嗤之以鼻,同為“AI之父”的楊立昆和杰夫里·辛頓的意見也是大相徑庭。前者認(rèn)為說LLM是隨機鸚鵡是對鸚鵡的侮辱,后者則認(rèn)為LLM能理解人類的語言。更折中的觀點是LLM有時像隨機鸚鵡,有時也能理解人類的語言。而辛頓的悲觀在于,他相信人類將失去對擁有高智商的AI的控制,為此他成為末日預(yù)言者。
盡管到目前為止LLM可能并不聰明,本德還是公開反對讓大模型過度介入人們的生活。作為一名語言學(xué)家,本德注意到了大模型“權(quán)力擴張”的危險性。
其實核武器本身也不聰明,連隨機鸚鵡都不是,但這并不妨礙它在特定情況下毀滅地球上的所有生靈。如果森林里全是鸚鵡,無論它是否隨機或者聰明,至少也將是一場生態(tài)災(zāi)難。當(dāng)LLM無處不在時,它就不只是是否聰明的問題了。
有一點可以確定,即使現(xiàn)在LLM是愚蠢的,人們盡可以嘲笑它,但是這種現(xiàn)狀并不能決定將來,否則就只是站在盒子里討論盒子。當(dāng)時間到了,數(shù)字心靈(digital mind)的涌現(xiàn)可能也就是一秒鐘的事。
從OpenAI到CloseAI
ChatGPT本意為Chat Generative Pre-trained Transformer,它不僅可以做到真正像人類一樣交流,甚至能完成高質(zhì)量的學(xué)術(shù)論文。一經(jīng)發(fā)布,立即引起世界廣泛關(guān)注,甚至有“狼終于來了”的恐懼。而ChatGPT首先沖擊的是學(xué)校,一項調(diào)查顯示,截至2023年1月,美國89%的大學(xué)生都是用ChatGPT做作業(yè)。隨后百度公司也推出了文心一言,而中國大陸地區(qū)的ChatGPT被限制使用。因為巨額投入與商業(yè)化應(yīng)用不力,2024年有消息傳出OpenAI可能會在該年底破產(chǎn)。
在ChatGPT大行其道的同時,作為OpenAI曾經(jīng)的發(fā)起人之一,馬斯克始終對今天的OpenAI給予尖銳的批評。2024年,馬斯克向舊金山高等法院起訴了OpenAI及其CEO山姆·阿爾特曼,因為阿爾特曼和OpenAI違背了這家研究公司成立時達(dá)成的一項協(xié)議——開發(fā)技術(shù)造福人類,而非為了利潤。2023年3月發(fā)布的ChatGPT,標(biāo)志著與OpenAI原則的重大背離。GPT-4是一個閉源模型,這違反了開源精神,此舉是出于商業(yè)目的,而非人類利益。此后,馬斯克還在X平臺上戲謔發(fā)文,建議OpenAI改名成CloseAI,這樣他就撤銷起訴。
無論OpenAI公司將來如何發(fā)展,是倒閉還是繼續(xù)擴張,有一點是可以肯定的——伴隨著ChatGPT的驚艷登場,以及世界各大公司趨之若鶩的大規(guī)模研發(fā),一個人工智能被打開(OPENAI)的時代再也不會關(guān)上了。ChatGPT的到來同樣帶來一些文化上的改變,有意思的是,2023年一個日本的程序員通過ChatGPT訓(xùn)練出了一個AI佛祖hotoke.ai,用著AI的標(biāo)準(zhǔn)式廢話解決年輕人的困惑。
對于ChatGPT的到來,我并不像許多人表現(xiàn)的那么恐慌,甚至在很大程度上,我認(rèn)為就目前版本的功能而言它還只是平庸之作。ChatGPT還不至于對有創(chuàng)造力的人構(gòu)成挑戰(zhàn)。但是不可否認(rèn)的是,與AI共生的日子已經(jīng)越來越近了。或許一切只是像科幻作家威廉·吉布森所說的那樣,“未來已來,只是分布不均”。
當(dāng)海浪停下來
1966年,約瑟夫·維森鮑姆創(chuàng)造了第一個聊天機器人ELIZA。這是一款能夠和人流暢對話、開解苦悶的人工智能。維森鮑姆用200行代碼寫出ELIZA聊天機器人,原本只是為了證明機器人的膚淺。雖然看起來像是人機在對話,但實際上ELIZA對人類情感一無所知,它只能向?qū)υ捳咧貜?fù)一些無聊的會話。出人意料的是,ELIZA在當(dāng)時引起軒然大波。
甚至可以說,它在當(dāng)時業(yè)內(nèi)引起的轟動并不亞于今天的OpenAI,然而,就在人們就此狂熱地討論人機如何協(xié)作、人會不會被機器人取代時,維森鮑姆為自己的發(fā)明永久地按下了停止鍵。簡單地說,他看到這種狂熱背后的危險。
據(jù)說之后的大部分時間里,維森鮑姆都為自己開發(fā)的聊天機器人感到后悔。耐人尋味的是,如果人工智能是一個潘多拉魔盒,即便第一個有能力打開它的人中途放棄了,總還會有其他人來打開。這種狀況就像是冥冥中有某種人類的進程。而且從功能上看,最初作為聊天程序出現(xiàn)的ChatGPT比幾十年前的ELIZA不知強大了多少倍。
隨后維森鮑姆帶著特有的人文理想主義潛心著書立說,在《計算機能力與人類理性》(Computer Power and Human Reason)一書中寫道,這項技術(shù)引發(fā)的問題,“基本上是關(guān)于人類在宇宙中的位置問題”。維森鮑姆回顧了人類迷上甚至崇拜工具理性的過程,當(dāng)人類發(fā)明的機器越多,人類就越發(fā)退化為一個對世界只會袖手旁觀的種群。自從發(fā)明了鐘表,人類遠(yuǎn)離了自然的時間,終日臣服于人造的、可量度的、理性的時間。而且維森鮑姆甚至在鮑曼之前在技術(shù)至上與納粹主義之間找到了隱秘的聯(lián)系,即技術(shù)讓人放棄自我,而這正是極權(quán)主義的起點。此外,按維森鮑姆的理解,人與人工智能畢竟是兩個物種,后者沒有每個人類嬰兒都必須經(jīng)過的“走出伊甸園”的社會化過程。
在另一本書中,維森鮑姆指出人類對科學(xué)和技術(shù)的冒險已經(jīng)把我們帶到自我毀滅的邊緣。就像溫水煮青蛙,科技不但給許多人帶來了前所未有的舒適,甚至還有夢寐以求的自我實現(xiàn)……
有類似想法的還有杰夫里·辛頓,作為“AI之父”之一,他自20世紀(jì)80年代就沉迷于計算機網(wǎng)絡(luò)神經(jīng)的研發(fā),并獲圖靈獎。他培養(yǎng)的其中一位學(xué)生還創(chuàng)辦了OpenAI。辛頓擔(dān)心的是有朝一日AI變成殺人機器,甚至操縱核武器。然而當(dāng)辛頓表現(xiàn)出某種悔意時,他所面臨的困境是一樣的。人類在科技方面的激情就像奔騰不息的大海,即便有一部分海浪留在了沙灘上,這并不影響下一撥海浪繼續(xù)卷地而來。
《人的消逝:
從原子彈、互聯(lián)網(wǎng)到人工智能》
作者 :熊培云
當(dāng)當(dāng)購書鏈接
博庫購書鏈接
文軒購書鏈接
編輯推薦
人工智能正在打開潘多拉魔盒。事實上,每一次劃時代的技術(shù)浪潮,都粘滿了“盲目樂觀”的羽毛。原子彈雖然結(jié)束了二戰(zhàn),但也形成了對人類存在的巨大威脅;互聯(lián)網(wǎng)雖然極大地拓展了人類的生活邊界,但越來越多的人反而經(jīng)歷著時空坍縮;人工智能雖然使得機器變得越來越人類友好,但人類反而像是淪為了機器的附庸……
本書中,熊培云以原子彈為思緒的起點,進而延展到互聯(lián)網(wǎng)構(gòu)建的新型文明,及至近年來欣欣向榮的人工智能,系統(tǒng)、廣闊地分享了自己近年來的思考。試圖在科技一往無前的當(dāng)下,喚醒“人何以為人”的意識;唯愿科技與人文,各執(zhí)半輪明月。
▲點擊圖片入手限量-新書+書簽
(▲書簽細(xì)節(jié))
熊培云
熊培云,1973 年生于江西永修,畢業(yè)于南開大學(xué)、巴黎大學(xué),主修歷史學(xué)、法學(xué)、傳播學(xué)與文學(xué)。曾任《南風(fēng)窗》駐歐洲記者,《新京報》首席評論員。香港大學(xué)、東京大學(xué)、牛津大學(xué)訪問學(xué)者,“理想國譯叢”創(chuàng)始主編委員之一。現(xiàn)執(zhí)教于南開大學(xué)。
↓ 點擊名片,關(guān)注浙江人民出版社↓
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.