文 | 李德林
如果瓦特還活著,他站在曼徹斯特博物館的穹頂之下,凝視著全息投影中上海外灘人頭攢動,人人都握著智能手機,坐上新能源智駕汽車絕塵而去。瓦特會驚訝技術(shù)平權(quán)的廣度,也會很失落,他會聯(lián)想到蒸汽機普及時英國僅有3%的工廠能負擔新型動力裝置。當瓦特在漢茲沃斯閉上雙眼300年后,蒸汽機時代已經(jīng)塵封在大英百科全書,世界進入人工智能的硅基文明躍升初期,在一個技術(shù)狂飆的時代,用戶安全成為從人工智能崛起到站穩(wěn)人民立場的全新考卷。
現(xiàn)在全球已經(jīng)有超過50億網(wǎng)民,有3400萬開源代碼托管項目,無論是遙遠的非洲村落,還是近在咫尺的中國沙漠,光伏太陽能都在跟網(wǎng)絡技術(shù)聯(lián)合改變這個世界。世界已經(jīng)進入智能制造時代,數(shù)控機床與3D打印技術(shù)能讓個人具備19世紀大型機械廠的制造能力,瓦特那個時代,可需要成百上千的工匠。現(xiàn)在維基百科每月有超過40億次的知識檢索請求,GitHub上2500萬開發(fā)者共建的代碼生態(tài),瓦特會為1796年跟博爾頓的那場專利訴訟而沉思。
工業(yè)革命以來,人類對效率的追求始終伴隨著對生命的妥協(xié)。但即便是妥協(xié),終究也有基本的底線。
1769年,瓦特改良蒸汽機開啟了機械化大生產(chǎn)時代,但曼徹斯特紡織廠中童工日均16小時的工作時長、平均壽命不足25歲的殘酷現(xiàn)實。更有甚者,蒸汽機時代工人被機器吞噬的慘劇不斷上演,效率崇拜對人性的踐踏持續(xù)了將近半個世紀,直至1833年英國《工廠法》強制限定工時,才標志著社會開始以制度抗衡技術(shù)的野蠻生長,安全依然是個長期的問題。
如今,在“中國智造”的宏大敘事中,人工智能技術(shù)正以顛覆性姿態(tài)重塑汽車工業(yè):自動駕駛解放雙手、智能座艙重構(gòu)交互、車路協(xié)同優(yōu)化效率等等等等。然而,當車企以“L3級自動輔助駕駛”、“零接管率”為賣點瘋狂營銷時,自動駕駛和無人駕駛的概念卻被模糊化植入其中。在事故中喪生的車主、因算法歧視被拒保的駕駛員、因數(shù)據(jù)泄露遭勒索的消費者,卻將技術(shù)平權(quán)的尖銳矛盾暴露無遺。科技平權(quán)發(fā)出了技術(shù)倫理的文明拷問:當機器開始替代人類決策時,我們?nèi)绾问刈o生命的尊嚴?
從福特用流水線將汽車送入尋常百姓家,汽車的安全問題一直如影隨形。比如早期的汽車缺乏安全帶和氣囊的T型車每年導致數(shù)萬人死亡。50多年后的1956年發(fā)明三點式安全帶后人們才看到希望的曙光,汽車廠家卻因成本抵制遲至1970年代才被強制普及。這一滯后直接導致美國十年間多死亡30萬人。歷史證明,技術(shù)普惠若缺乏安全底線,終將淪為“致命普惠”。
現(xiàn)在的智能汽車每天生產(chǎn)海量的數(shù)據(jù),涵蓋位置軌跡、生物特征甚至車內(nèi)對話。2024年,《紐約時報》報道保險公司會根據(jù)長達258頁的用戶行車數(shù)據(jù),對用戶急剎車數(shù)據(jù)進行獨立核算保費,導致高風險用戶保費上漲數(shù)倍。這恰如法國哲學家福柯所言:“圓形監(jiān)獄”已從實體空間遷移至數(shù)據(jù)云端,公民的隱私嚴重讓渡,知情權(quán)被剝奪,淪為算法中的“透明人”。
英國倫敦國王學院的研究人員進行一項研究,通過對超過 8000 張圖片檢測后,發(fā)現(xiàn)了一個漏洞:自動駕駛汽車使用的由 AI 驅(qū)動的行人檢測系統(tǒng),對兒童的檢測準確率比成人低了 19.67%,深色皮膚的檢測準確率比淺色皮膚低了7.53%。雨霧天氣下弱勢群體事故風險激增。更隱蔽的是,部分車企為降低事故率,算法會優(yōu)先規(guī)避賠償成本高的對象,如豪車,形成“算法達爾文主義”。當技術(shù)成為社會偏見的放大器,那么“智駕平權(quán)”就出現(xiàn)生命漏洞。
自動駕駛系統(tǒng)成為車企營銷的噱頭,當事故發(fā)生后卻改口為輔助駕駛。當年優(yōu)步自動駕駛撞傷行人,責任認定演變成了一個全球性的話題:算法供應商、車企、地圖服務商相互推諉,受害者維權(quán)陷入被動。技術(shù)的進步對各國的法律體系滯后是一個巨大的考驗,尤其是在自動駕駛出來時才發(fā)現(xiàn),道路交通安全法將駕駛責任限定為“人”,對AI決策主體缺乏界定。
現(xiàn)在,世界進入了硅基文明的躍升初期。除了自動駕駛,人工智能、機器人,智能制造都在向未知的世界不斷地發(fā)起探索。當我們在互聯(lián)網(wǎng)上沖浪的時候,互聯(lián)網(wǎng)讓天涯近在咫尺,可隱私數(shù)據(jù)成為他人覬覦的生產(chǎn)工具。當眾包平臺上3000萬零工勞動者風雨穿行,他們在跟算法調(diào)度系統(tǒng)賽跑,更是為了生存而不敢停下腳步。現(xiàn)在,我們正站在技術(shù)普惠與用戶安全的十字路口,敬畏每一個生命,尊重每一個人的權(quán)利,技術(shù)才能站穩(wěn)人民的立場。
十八大以來,國家多次強調(diào),科學技術(shù)特別是新興科技在促進經(jīng)濟社會發(fā)展、改善人民生活的同時,也存在不少難以預見的規(guī)則沖突、社會風險、倫理挑戰(zhàn),如人工智能發(fā)展帶來的算法歧視、隱私保護等社會問題,基因編輯、基因增強等生命科學新技術(shù)引發(fā)的不確定性風險等。要增強憂患意識,加強科技倫理治理,確保科技發(fā)展安全,讓人民群眾更安全地享受科技紅利。站穩(wěn)人民立場,將堅持人民至上作為科技強國建設的價值引領(lǐng)。
德國首創(chuàng)“技術(shù)監(jiān)理官”制度,要求車企公開算法決策邏輯并設立賠償基金;歐盟將自動駕駛列為“高風險系統(tǒng)”,強制實施第三方認證。北京大學成立全球首個“自動駕駛倫理委員會”,成員涵蓋哲學家、法學家、工程師及市民代表。其發(fā)布的《自動駕駛道德決策12條準則》中明確:“系統(tǒng)不得基于年齡、性別、種族等因素進行差異化抉擇。”這種多元共治模式將推廣至所有L4級以上自動駕駛系統(tǒng)的算法訓練過程,確保技術(shù)演進不脫離人間煙火。監(jiān)管建立覆蓋數(shù)據(jù)主權(quán)、算法審計、責任追溯的全鏈條體系,以嚴格立法倒逼技術(shù)向善。
技術(shù)平權(quán)時代的人即數(shù)據(jù),算法往往在人面前猶如一個黑箱。DARPA推行的XAI(可解釋人工智能)項目要求算法輸出決策依據(jù),如自動駕駛緊急避讓時需明確“為何選擇左轉(zhuǎn)而非剎車”。國內(nèi)企業(yè)如華為已在其MDC計算平臺中引入因果推理模型,使系統(tǒng)能像人類駕駛員一樣提供“駕駛?cè)罩尽薄Nㄓ凶屗惴ǜ鎰e“黑箱”,才能實現(xiàn)技術(shù)權(quán)力的民主化。尤其是智能汽車,更應該內(nèi)置“倫理選擇模塊”,面對不可避免事故時優(yōu)先保護車內(nèi)人員的生命安全。
智能汽車的技術(shù)平權(quán)更應該關(guān)注“雙冗余安全設計”:當主系統(tǒng)出現(xiàn)誤判時,備用系統(tǒng)會立即啟動,并通過方向盤震動、座椅脈沖等物理反饋喚醒駕駛員。技術(shù)民主化可改變汽車業(yè)的價值邏輯,安全不應是豪華車的專屬標簽,而是所有交通參與者的基本權(quán)利。監(jiān)管方面所有涉及人身傷害的智能汽車數(shù)據(jù),需在24小時內(nèi)同步至國家交通安全區(qū)塊鏈,并引入“數(shù)據(jù)陪審團”制度,由算法工程師、倫理學家和普通市民組成三方團隊,共同解析事故真相。
除了自動駕駛,我們未來還會面臨大數(shù)據(jù)、機器人等諸多技術(shù)平權(quán),當我們站在工業(yè)革命4.0與智能革命交匯的十字路口,我們比任何時候都更需要重溫愛因斯坦的警告:“關(guān)心人的本身,應當始終成為一切技術(shù)上奮斗的主要目標。”從“中國制造”到“中國智造”的跨越,不僅是生產(chǎn)力的躍遷,更是文明形態(tài)的進化。當硅基生命與碳基生命開始爭奪道德敘事的主導權(quán)時,真正的文明高度,不在于創(chuàng)造了多少奇跡,而在于守護了多少顆不安的靈魂。
敬畏生命,敬畏安全,是這個AI時代更是新能源智駕時代最需要的商業(yè)文明。這也應該是商業(yè)文明的底線和常識。
(本期策劃:黃利明)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.