戴昕(章靜繪)
今天,數字通信、互聯網、新媒體以及各類應用的廣泛普及和不斷迭代,伴隨相關爭議層出不窮,正是“信息”作為法治議題受到高度關注的重要背景。北京大學法學院長聘副教授、副院長戴昕在新著《信息隱私》中,從微觀到宏觀層面,深入探討了隱私保護、數據產權、聲譽修復、科技倫理等前沿法律難題,為我們勾勒出一幅二十一世紀中國如何理解與實踐信息隱私的立體全景。
公眾人物的隱私權是否該受到限制?新一代人工智能興起后,當數據全面收集和共享不可逆,法律可以建構什么新的有關個人信息處理行為的規則?在今天的信息技術環境中,如何恢復聲譽,給人第二次重新來過的機會?數據之治作為一種新治權,會在世界各國引發憲制結構調整嗎?就這些問題,《上海書評》專訪了戴昕。
《信息隱私:制度議題與多元理論》,戴昕著,北京大學出版社,2024年4月出版,256頁,69.00元
您說《信息隱私》全書采用“反形式主義立場”,反對將“隱私”“數據”“個人信息”等概念本質化、實體化(thingify),主張用對“物”的研究代替對“詞”的糾纏,基于事理來演繹法理。為什么要反復強調這一立場?當然,您也會讓步說,法律理論的形式維度和現實維度應相結合。您怎么看法律形式主義與現實主義的關系?在信息隱私問題上,您的現實主義視角就是社會福利分配視角、損害相互性視角,為什么這樣的視角是現實主義的?
戴昕:“法律”內含一套語義和符號系統,其清晰性和邏輯性是法律制度以理性方式運轉的前提,因此法學研究者會將很大的精力放在建構系統形式、完善語義邏輯之上,在行外人看來就是特別喜歡“咬文嚼字”。正如書中所說,我并非認為這些形式維度的工作不重要,甚至認同法律工作就應該在“形式上”多下點功夫——每年春天指導學生論文的時候,最常給他們提出的要求之一就是好好讀讀自己寫的句子,想說的意思夠不夠清楚,有沒有前后自相矛盾,同一個概念在不同地方出現會不會對應兩件事,等等。
我所反對的是“形式主義”。“法律形式主義”(legal formalism)和“法律現實主義”(legal realism)是一百年多前開始在美國法學理論領域出現的一對相互對立的學理范疇,不過我們如今提起這兩種學理立場時,所指相對會更寬泛。所謂法律形式主義,在較極端的意義上,主張以符號、語義和邏輯構成的形式規范系統就是法律的全部,完美的法律是在“真空中”自主運轉的理性,其獨立于外在的社會、政治或道德考量,能夠憑借清晰、精確的概念體系和嚴謹的演繹方法,對所有法律問題提供確定性。換言之,在法律形式主義者眼中,人類社會的“法律”與自然物理“法則”(law of physics)是沒有差別的,法律研究者的工作和牛頓一樣,在觀察“蘋果落地”(真實糾紛與案例)的基礎上探究思考,從而發現“萬有引力”(抽象法律規則)——后者本身是客觀真理,不因社會的利益或需求而改變。與這種立場對立的即是法律現實主義,其認為法律的形式——概念、規則等——本身都來源于社會實踐,而法律的運作服務于社會實踐的需求,甚至往往有被特定利益訴求驅動的政治屬性,因此既不中立客觀,更無所謂完美。在現實主義者看來,足夠困難的法律問題都無法僅憑形式主義者推崇的所謂法律方法解決,或者說這類問題的法律解決方案本身都不能僅在法律層面理解。
現實中,極端且完全自覺的法律形式主義者恐怕不多,但在半自覺或不自覺的意義上有較強形式主義傾向者其實不少。具體到信息隱私問題,相比于其他更傳統的法律理論議題,我認為法學界的形式主義傾向要更弱。信息隱私問題之所以在最近十多年受到突出關注,完全是因為實踐日新月異,相關研究者大多都是被實踐問題觸動才“入坑”的,而不像有些傳統領域那樣,由于研究已過度飽和,研究者只能從法條或教義的細枝末節出發,在語義層面建構并研討一些實踐中不構成問題的問題。不過,盡管信息隱私問題的研究是由實踐而起,但研究在開展過程中還是沒有避免形式主義的慣性,比如追求在實質意義上區分界定隱私、數據、個人信息這些概念,明確分辨信息中的人格利益和財產利益,在既有財產權利體系下明確“數據權屬”,等等。注意,我并不是說這些概念區分的工作本身沒有價值。我的看法是,法律上的這些概念本身不具備“本質”內涵,我們根本做不到,也沒必要追求找到某種客觀、中立、脫離社會需求的“理性”理由,界定哪些信息是隱私,哪些不是,或者哪些數據是“企業數據”,哪些是“公共數據”。實際上,恰好相反,法律概念是一種制度工具,服務于制度性解決社會問題的需要,后者是我們應該首先思考、理解、辯論的問題,由此出發,再去建構符合實踐需要的法律概念。不僅如此,如果“厘清概念”的目的是服務于實踐,那么這些形式層面的工作也要適可而止,不應指望并追求實現極致、恒久的精確。現實是復雜、變動的,例如在信息隱私問題上,人格和財產利益如今往往是交織并重疊的,即使沒法拆解得一清二白,我們仍可以觀察或想象人際互動界面上的行為規范——無論法律還是倫理——及其后果,對規范反思、批判、重新建構,在此基礎上解決問題。
除此之外,如您所說,我在書中采用的現實主義視角,確實主要是社會福利(welfarism)意義上的,或者說后果論式的,以行為和規則的后果作為制度評價與建構的基準。這當然不是形式主義的,我不認為存在某個必然正確的概念和規則系統,只有先在邏輯上發現并梳理清楚這個系統,才能思考相關法律和制度問題。當然,我希望本書中呈現出的后果主義是相對較弱的那種,有更強的包容性,可以把例如自主性、獨處偏好等通常認為獨立于制度的整體社會后果的價值原則也帶進來。
關于隱私保護的公眾人物規則,即適當限制公眾人物隱私權,以保障新聞自由的規則,您通過考察法律與中國其他規制因素的互動,得出了一個與通常認知相反的結論:這一規則表面體現開放多元精神,實際會造成精英階層內部隱私保護待遇分化,削弱缺乏資源者進入公共視野的意愿,促進媒體人格呈現的單調同質。能介紹一下您的分析過程嗎?按您的思路,如果法律不區分精英與普通人的隱私權,雖能讓前者多元化,卻也會拉大二者的差距。就這里體現的多元與平等的矛盾而言,您認為什么樣的安排是好的安排?
戴昕:公眾人物隱私保護相對于普通人更受限的法律規則,主要以美國為代表,傳統上的確被認為主要有助于保障新聞自由。但正如書中介紹,公眾人物并不只靠法律實現隱私,如果法律保護相對弱化,其會轉向其他自力保障的方案,無論是購置深宅大院,還是出行坐私人飛機,甚至去買通媒體撤稿、買熱搜,等等。基于此,不難想象,都是公眾人物,占據這些其他資源的情況卻會有很大不同,如果你沒有那么多“資源”,又想站到舞臺中央,可能就要付出比其他名人更高的隱私代價。在美國其實一直就有這樣的討論,一些被認為非常優秀,甚至被期望參與總統大選的人,因為自己“臉皮不夠厚”,不希望個人生活被過度暴露在聚光燈下,并且也沒有足夠的資源或精力去進行公共形象管理,最終決定放棄進入政治、參與公職,這可能是社會的損失。
就中國的情況而言,書中第一章的討論受到當年楊麗娟案的啟發。在那個案件中,楊氏母女被法院認定為“自愿型公眾人物”,由此落入了相對而言隱私更少受法律保護的類別。但反過來,在其他一些看上去所涉信息私密性未必更高的案件中,更接近人們所通常理解的“公眾人物”的一些原告,其隱私訴求在法律上卻獲得了更多認可。在這個意義上,中國的信息隱私規則,看來同樣是不太鼓勵普通人進入公眾視野的。不過,在中國,精英可以借助的隱私保護資源,除了可從市場購買到的那些之外,還有一些是制度性的。一類是社會制度,比如有關“為尊者諱”“死者為大”的文化規范,一類是法律制度,例如管理部門對暴露名人隱私、炒作低俗內容的審查與限制。這使得哪些精英有何種資源保護自身隱私的問題,在中國變得更為多樣,值得玩味。
楊麗娟,2007年4月。視覺中國 圖
楊絳曾于2013年起訴中貿圣佳公司、李國強侵害錢鍾書書信手稿著作權及隱私權。視覺中國 圖
至于什么樣的安排是最好的,我其實也沒有答案——手心手背都是肉。或者,反過來說,不管社會中哪個階層的個體,其實無非都想“既要又要”,一面要獲得超出一般的公眾關注并由此獲益,一面又要確保自己不想被他人所知的事情一概能夠保密。那么,憑什么有些人就應該比另一些人更值得這種待遇呢?傳統上,這種關注度和私密性之間的權衡,交由每個個體結合自身占有資源的情況,自行相機決策,無法指望法律給出一攬子制度安排,法律保護對個人決策的影響主要是邊際上的。不過,由于社交媒體的普及,以前只有少數人需要權衡的這種利弊,如今對于廣大的活躍社交媒體用戶而言都成了家常便飯——隨便參加個健身活動或網絡討論,都可能引致家底被翻個干凈。我們因此需要更好地理解普通人的行為及其背后偏好的變化,思考是否有必要做出一些一般性的制度安排,避免人們在不知情、無意識的情況下,被誘導或操控做出一些具有嚴重自我傷害性的選擇。
如您所說,今天有某種人均公眾人物的趨勢,普通人在其弱關系網絡中表現得越來越像傳統意義上的公眾人物,更有能力策略性地使用個人信息,甚至實施社交欺詐。同時,“人肉開盒”事件頻發又讓社會產生不安情緒,人人自危。美國學者丹尼爾·索洛夫(Daniel J. Solove)在其新著《論隱私與技術》(On Privacy and Technology)中指出,數字時代的“同意”機制是一種虛構,個人不該被賦予那么多隱私管理權責,您同意嗎?
丹尼爾·索洛夫著《論隱私與技術》
戴昕:作為具體的法律規則,同意機制確實是一種虛構。近年每次到歐洲的時候,打開任何網站,都被要求點擊有關網站隱私政策的同意,但我們知道根本不會有人仔細看——不僅是細致的條款沒人看,甚至彈窗里一句話的提示都不見得有多少人會看,只是默認點擊“接受”,因為人們潛意識里往往會擔心,如果不接受,會不會減少服務,甚至沒法繼續瀏覽網頁。
其實近年來,關于網絡用戶是否能夠理解隱私政策、是否能夠根據自己的偏好和需求做出選擇,有許多基于實驗方法的經驗研究,其結論并不完全相同,但至少有一些研究似乎指出,隱私政策本身沒有我們想象得那么難懂,普通人完全可以讀明白,也能夠在考慮之后做出選擇。但即便如此,這些研究的發現也不足以作為法律應主要通過賦權個人、提供隱私管理選擇以規范數據隱私實踐的依據,因為我們根本無法想象,人們需要去閱讀每天打開的每個頁面和每個應用的隱私政策。因此,數據隱私管理在當代肯定需要從社會層面著手。
但在抽象的意義上,我認為與隱私保護有關的“同意”還是一個有學理意義的觀念。我們可以將其理解為數字經濟的服務提供者與社會公眾之間的某種一般性協議。數字經濟的發生、發展和繁榮以用戶或社會公眾的普遍參與為前提,后者在技術崛起之時被允諾了許多便利、實惠,與此同時還被保證不會面臨特別嚴重的安全風險,而用戶為了這被允諾的更美好的前景,也愿意在數字經濟發展過程中忍受一些不便甚至困擾。這種一般意義上的社會契約提供了數字經濟持續發展所必要的社會信任。如果數據處理者“背信棄義”,故意采取傷害用戶乃至危害社會的做法,我們之所以會將這些行為認定為不合法,其規范理由之一可以是“同意”的缺失。
您認為,面對數據社會的前景,換言之,當數據全面收集和共享不可逆,“看破不說破”——知情者積極掩飾知情狀態——或許可以成為重構信息隱私的立足點。但您也指出,“不說破”高度依賴語境,這會成為其重構隱私規范和制度的障礙嗎?另外該如何回答您在這一討論最后提出的問題:在哪些領域,何種意義上,“不說破”無法替代“不看”“不說”?在何時,即使可以保證“不說破”,還要謀求“不看”“不說”?
戴昕:對個人信息的全面收集和處理,在新一代人工智能興起的當下尤其會是一種不可逆的趨勢。但需要注意的是,此前多年來法律制度在個人信息收集環節的前端規制,效果本身也并不理想——甚至,新型人工智能興起本身,在一定程度上得益于這種前端規制在整體意義上并沒有成功。
假定未來端側人工智能體(例如真正智能的“智能手機”)普及,成為每個人在日常生活中實際可用、有用的個性化生活與工作助理,那么法律在個人信息收集環節以告知同意為基礎的規制將進一步失效。人們可以關閉不好用的個性化推薦,可以譴責未經許可被打開的“無障礙操作”,但如果AI助手真的既好用又貼心,有多少人會舍得拒絕把個人信息全盤奉送呢?
到這樣的時候,不論有多困難,我認為法律都將不得不走出舒適區,真正做出努力,嘗試建構比前端收集控制更為細致、接地氣并且能夠語境化的有關個人信息處理行為的人機交互規則。舉例來說,人工智能體可以了解我的需求,甚至最好能推測我的需求,知道我最近BMI(身體質量指數)超標,在我傍晚下課回到辦公室之前,它已經給我點好一份熱量較低的晚餐,而我因為工作忙,根本沒有想起過好要跟它提出這個要求。但更體貼的是,它不會說你最近胖了,應該注意飲食、別再大魚大肉了,不會讓你有任何心理負擔。不難想象,家人或親密的朋友之間,可能會有這種默契、關照和尊重,而這都是基于分享個人信息,甚至敏感個人信息實現的相互了解。我們有沒有可能在人機交互界面,建構、適用類似的行為規范?毫無疑問,這比要求機器在收集處理信息之前推送彈窗、獲得同意困難多了,甚至近乎科幻。但我認為研究、思考這樣的規范是更有意思的,甚至在未來不可避免。這其實也體現了形式主義和現實主義的區別。很多時候形式主義者本身其實也是務實的,只是討論概念,把概念嵌入規則,這在短期上反而更能落地。所謂現實主義者,反倒會面向遠方多做些想象。
您詳細論證了傳統財產權體制保護抽象排他訴求的做法,與數據資源的特征之間存在深刻的張力,因此您認為,所謂數據界權,應在數據處理行為的沖突層面,而非數據的靜態權屬層面,并且這種界權是權宜的、持續的、開放的。科斯的理論與霍菲爾德的框架似乎是您到達同一目的地的兩條路徑,書中對應的兩章是用不同語言講述同一件事,可以這么說嗎?
戴昕:科斯的理論指出,法律規則界定權利的意義是為秩序提供起點,而不是確定秩序的終局。換言之,明確了法律規則,基于交易和協商安排利益的市場機制才能夠開啟運轉。而對法律界權這個起點的需求,本身來自稀缺性造成的人和人之間不可避免的利益沖突。在科斯看來,法律對權利的界定,實際上是在必然出現相互妨害時,法律將允許一方妨害另一方,且不需要因此對另一方承擔賠償責任等后果。一方的權利,因此就是另一方需要承受的負累。這樣的理解可能有點冷酷,特別是法律界和公眾經常會講,法律的目標是平衡各方利益,而“平衡”的意思似乎是所有人都要照顧到,都能讓其滿意。但科斯指出,這個在絕對意義上做不到,法律經常不是在“平衡”,只是在“取舍”。
羅納德·科斯(1910-2013)
很有意思的是,在科斯于1950年代末提出這種“損害相互性”的觀點之前,霍菲爾德在早其四十年之前便更為清晰地建構了一套體現這種思想的法律權利概念框架。在霍菲爾德的框架中,所有的法律上的積極權益,都必須對應著某種法律上的負擔,權益和負擔只有在包含兩個主體的法律關系的意義上,才能存在。例如,任何人若在法律上享有權利,都必定意味著另一個人為此背負了相應的義務。這實際上是為損害相互性的思想建構了一種法律形式表達。
韋斯利·紐科姆·霍菲爾德(1879-1918)
限于自身的閱讀和查證,我沒有找到科斯的理論受霍菲爾德理論影響的直接證據,但如果真有的話,倒也并不奇怪,因為科斯畢竟是在美國的法學院圖書館里泡了比較長時間的經濟學家。而如果科斯確實不了解霍菲爾德的話,那這就是又一個英雄所見略同的佳話,也是我在做這個研究時感到非常有趣的一個發現。實際上,雖然人們通常認為霍菲爾德的主要貢獻是提供了一套形式化的分析理論工具,但他本人在當年是法律現實主義取向的。霍菲爾德對形式化理論的定位就是工具,如果概念工具比較清楚,就可以借助這套工具,進一步思考將社會政策和政治價值通過這套概念工具轉化表述為法律規則。在這個意義上,霍菲爾德不是形式主義者,他并不認為法律概念本身是第一性的,可以獨立于底層的社會關系和社會實踐成為實體。我認為科斯和霍菲爾德的理論對于我們思考數據相關的法律規范的建構有幫助,前者指出權利規范要結合市場思考后果,后者指出真正必要的規范是界定關系,而不只是站在某個個體的立場上建構其權利。
在互聯網商業模式下,人們習慣了用免費數據換免費服務;而在人工智能生產過程中,數據可被視為生產資料,人產生數據可被視為勞動:此即從“數據作為資本”到“數據作為勞動”的范式轉向。您認為應該重視市場基于數據質量,對不同數據勞動作出區分定價,尤其使高技能的勞動者制造的勞務數據獲得勞務支付。這會制造新的不平等嗎?
戴昕:實際上這種“不平等”一直存在。比如,寫作就是生產數據,一些人可以為此獲得報酬,另一些人則需要倒貼錢給出版方才能實現發表。當然,這里的問題是,市場本身并不是判斷作品價值的唯一尺度。正是因為意識到了這一點,人類社會才會出現像大學這樣的機構,穩定雇傭一群人創作高質量數據——其中很多人的作品,在至少一定時期之內,都在市場上賣不出什么價錢。
當然,我在書中主要討論的不是上面這類數據生產活動,而更多是例如游戲平臺、社交平臺、電商平臺上的用戶在使用平臺服務的過程持續生產的數據,這些數據對于平臺企業來說是重要的生產性資源。實際上,除了為用戶提供服務之外,平臺企業也經常用其他各種優惠促銷手段,為一些在它們看來具有更高價值的數據向用戶額外支付對價。除此之外,市場上如今有很多數據問卷平臺,為研究者招募填寫問卷的樣本,這些樣本在科學意義上比你免費生成個問卷發在微信朋友圈里獲得的樣本質量高得多,當然也就需要付出更高的價格。還有,最近這些年,不少人的工作是為人工智能訓練生產高質量數據,也即數據標注。進行難度較低的數據標注和專業性較強的數據標注,價格當然不一樣。當前相對付費更高的數據標注工作,應該轉向了為訓練具身機器人所需要的動作數據,標注文本和圖形的工作較此前已經大為減少了。
因此,這里存在不平等,但并不是新鮮現象。
在聲譽修復的問題上,為什么您認為制度設計者和行動者應該突破被“刪除”和“遺忘”鎖定的思維,在信息層面做加法比做減法更好?
戴昕:所謂“聲譽修復”,在寬泛意義上,涉及的是個體或組織在其外部評價因負面情勢出現而遭到降低、減損后,有沒有任何辦法予以補救、挽救的問題。歐洲個人信息保護制度上有很著名的“被遺忘權”規則,其基本邏輯是負面信息不應該跟人一輩子,而要讓個體有第二次重新來過的機會,就必須在滿足一定時間期限和其他條件之時,將相關負面信息刪除,或至少隱藏起來不被看到(例如不能被搜索引擎找到)。
為人們提供第二次機會的出發點當然是好的,但真要依靠某種刪除的制度來實現這一目的,會有三點問題。第一是實際操作層面的。今天的社會環境和早先不同,一個人在一個地方身敗名裂,曾經可以遠走他鄉,更名換姓,重新再來。但今天的信息技術環境使得抹去記憶的難度非常大,尤其是這些記憶隨著網絡化信息存儲結構的普及,一旦生成,便很難徹底抹去。第二是信息價值層面的。負面信息固然對個體本身會帶來不利影響,但這不意味著這些負面信息對社會其他主體乃至公眾沒有正面價值。一個人或一個企業違反合同約定,不履行義務,被法院判定承擔責任,這項信息如果因為裁判文書公開而始終可以被公眾查到,當然可能不利于個體未來獲得交易機會,但對于潛在的交易對象而言,這些信息是極有價值的,是其進行盡職調查和信用評估時的必要信息。第三則是倫理規范層面的。社會固然應當給犯過錯的人提供第二次機會,但還需要考慮這樣做對于沒犯過錯的人會有什么樣的影響。假設有三個人,其中一個犯了錯但毫無悔改之心,一個犯了錯但又完成自我革新,另一個始終潔身自好,那么人們如果對此三人的過往情況完全了解,他們是否就一定會對第二個人有偏見,特別是不公正不適當的偏見?有沒有可能,他們至少會對第二個人給予比第一個人更高的評價,甚至對第二個人給予接近或不低于第三個人的評價?我想這都是有可能的,取決于社會一般接受的有關寬容、諒解乃至救贖的價值規范。但即便假定在某個社會中,流行的道德標準相對嚴苛,盡管人們認為第二個人比第一個人要強,卻仍認為第二個人還是比不上第三個人,我們固然會覺得這樣的社會寬容度不夠高,但也可以理解其做這樣區分的合理性甚至正當性。實際上,只有在那種有極端道德潔癖的社會,人們會認為只要一個人犯過任何錯,無論如何悔改都不可饒恕,此時刪除才可能是無法避免的。但這樣的社會本身并不理性,這種近乎潔癖的道德規范通常也無法持續。
基于此,我覺得用在信息層面做加法的方式實現聲譽修復,比“一刪了之”更合理。當然,之所以很多人仍然強調刪除,恐怕還是因為這個辦法聽起來最徹底,或者至少在法律要求的層面最“干凈”——至于效果如何,可能不是所有的法律人都會那么在意,覺得那都是實際操作而非規范問題。反過來,做信息加法,確實會引發進一步的如何建構調整社會認知規范的麻煩,即信息越多的情況下,人們應以何種方式處理信息、形成認知,會需要更多規范,這樣看上去就更復雜。不過法律雖追求簡潔,卻也并不總是只圖省事。
關于中國當代社會信用體系的建設,您梳理出了三種基本制度邏輯:自由主義-法治分散、國家主義-德治集中、發展及現代化-規制強化。您認為這三者可以彼此找到契合點,拼合出一個整體圖景,最終實現社會信用體系建設的理想愿景:智慧城市。您比較強調三種邏輯互補的一面,怎么看它們之間的張力?畢竟,您也說,技術發展會推動權力集中還是分散猶未可知。在您看來,界定何為失信、如何懲處失信的權力是一種新治權,關于它在國家權力結構中應處什么位置,您在書里沒有給出明確答案,能談談嗎?
戴昕:其實我的看法是,這三種制度邏輯之間,從一開始就存在張力,其各自取向并不相同,甚至原本就難以在同一制度空間中實現。事實證明,近些年來,這三條信用建設的路徑確實從緊密交織逐漸走向空間分化,例如法治分散的邏輯更多體現在市場化征信建設領域;德治集中的邏輯被限定在了一些地方的誠信建設場景里,已經不再是社會信用體系建設中突出強調的內容;規制強化的邏輯則不斷受到行政法治要求的規訓,形成了穩定但也較之前更為有限的范疇。
由于社會信用體系建設出現的上述分化,基于信用的新型治權,如今看來不像此前預想的那樣集中、強大;至少截至目前,法治相對于信用之治仍然占據明顯優勢。但在下一步,信用的邏輯本身可能隨著新的技術能力——更強數據處理和決策能力的AI——的引入,而有再度興起的契機。新的公共權力有可能以顆粒度更細的方式,為不同社會主體配置權責、提出行為要求。在這種情況下,新型治權出現的位置,取決于數據和算力會被集中掌握在哪些部門手中,而這是有可能在世界各國均引發憲制結構調整甚至某種動蕩的。前一段馬斯克在美國搞的聯邦政府精簡改革,其實就是一個極端但生動的例子。馬斯克新政團隊謀求攻占各部門的入手點就是其數據系統,而像財政部等極少數部門,則通過拒絕數據獲取,暫時抵擋住了馬斯克的電鋸。
馬斯克在新一屆美國政府中領導“政府效率部”,幫助特朗普大幅削減聯邦開支、大規模裁減聯邦雇員。
您在討論“不說破”與隱私規范的價值基礎時,在分析聲譽損害的可救濟性時,都會談到主觀、感受、精神、心理層面,這似乎也是您書里的一條隱藏線索。這些層面對信息隱私問題的意義是什么?
戴昕:信息隱私牽涉的很多社會利益,都根植于人們的主觀感受,而這本身也是“隱私”概念一直被人們認為很難清晰描摹、精準把握的重要原因。在以往的理論討論中,很多學者嘗試界定隱私的方式,就是找到另一種主觀性極強的價值訴求,例如尊嚴、自主、自由等等,并指出隱私其實就服務于人們對這些主觀、精神性價值的追求。
在我看來,人們圍繞隱私產生的精神層面的價值需求是多元的,相互之間甚至經常發生沖突,例如你若對前塵往事主張隱私,那么我作為這個往事的另一方當事人,反而可能覺得,我沒有得到充分尊重。因此,在社會意義上,隱私的務實追求不是讓所有人滿意,而是盡最大可能維持基本的體面與總體和諧。這也是我為什么會覺得,像“看破不說破”這樣的規范,反而更可能是具有基礎性意義的隱私規范。人類社會從來都沒有什么絕對的秘密,不斷流變的信息互動方式,對應的是維系社會共存的“體面”——不管多些還是少些,只要人們還會共同生活,“體面”是剛需,而圍繞這樣模糊的概念形成的規范體系必然包含多元而非一元價值。
在您書出版后的這段時間,人工智能已更加深刻地融入普通中國人的生活。您曾在采訪中談及與ChatGPT相關的數據安全、著作權等問題。您去年發表了一篇論文,探討人工智能致害的侵權責任,不難看出,相關分析思路與您書中關于聲譽修復、數據交易等問題的討論有連續性。對于人工智能的發展對數據隱私議題的影響,您目前是否有新的思考愿意分享?
戴昕:前面提到,近期有關端側人工智能體應用的信息隱私問題,我有一些想法,在一些會議上曾做過初步報告,正準備逐步寫出來。一方面,我們對智能體的期待是其成為真正有用的智能助手,但另一方面,一個真正有用的智能助手應當遵守什么樣的信息隱私規則,其實是我們普通人此前從沒有遇到過的問題——因為,“貧窮限制了想象力”,我們從來都沒有享受過私人助理的服務。那么,那些現實中早就先我們一步用上私人助理的少數人,是如何約束私人助理的信息處理行為的?這些規范對于我們建構普世化的智能助理信息規范,是否有任何借鑒和參考價值?這是讓我覺得很有意思的一個問題。但在更宏觀的層面,這其實仍延續了信息隱私從精英議題擴展為公眾焦慮的大趨勢。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.