作者:陳亮,西南政法大學人工智能法學院教授、科學技術法學研究院研究員,法學博士。張翔,西南政法大學科學技術法學研究院研究人員、人工智能法學院博士研究生。
當前,我國正處于從網絡時代邁向智能時代的關鍵轉型期,以自動駕駛、AIGC、智能推薦等為代表的顛覆性人工智能技術,在為數字社會變革注入強勁動力的同時,也為法律治理算法黑箱、消除數字鴻溝、保障人工智能穩定運行等新型社會問題帶來巨大挑戰,這些社會問題呈現出交叉性、整合性和動態性特征,難以為傳統法律部門所涵蓋。根源在于,人工智能的復雜性不僅表現為技術本身的復雜性,而且表現為社會和組織上的復雜性,正在突破傳統部門法律關系所立足的線性、均衡、簡單還原的社會關系構造。雖然人工智能領域已經制定了數量可觀的政策、法規、規章和規范性文件來彌補部門法“各自為政”之缺陷,但這些規范整體上零散無序,相當一部分條款依舊脫胎于部門法的固有理念和調整思路,沒有在法理上對人工智能的本質和運行機理正本清源,規范之間的體系性也極為欠缺,因而這種“頭疼醫頭、腳疼醫腳”的立法模式難以充分應對人工智能引發的一系列復雜性社會問題。“系統思維作為一種解決問題的整體分析方法,將復雜系統視為相互聯系、互為依存的狀態,其內在行為可能會產生連鎖反應;只有將系統行為作為整體來理解而不是專注于孤立的組件,才能準確識別潛在的模式和關系,找到有效決策方案。”因此,轉變立法思維、堅持系統觀念,構筑體系化的人工智能立法方能妥善應對新挑戰。
早在2017年,《國務院關于印發新一代人工智能發展規劃的通知》(以下簡稱《新一代人工智能規劃》)就提出人工智能立法“三步走”戰略目標,其核心要義是建構完善的“人工智能法律體系”;國務院2023年度和2024年度“立法工作計劃”均將“人工智能法草案”列入預備提請全國人大常委會審議草案的范圍,雖然“人工智能法”未能進入正式立法計劃,但立法者已然意識到人工智能領域體系化立法的必要性。學界對人工智能立法問題也有所關注,主要集中于“人工智能對傳統部門法的挑戰與立法回應”“生成式人工智能、自動駕駛、虛擬數字人、人臉識別等具體場景或某種新技術引發的法律風險及立法應對”“域外人工智能立法評介”“人工智能賦能(輔助)立法”等主題,從原理層面專門探討我國人工智能立法體系化問題的研究較為少見。鑒于此,本文首先聚焦當前人工智能立法體系性之不足,解決立法體系化的前提問題,并據此框定人工智能立法范疇;其次,明確立法體系化預期實現的目標,在應然與實然之間提煉法律體系化的一般原理;最后,嵌入人工智能立法的特定機理,從模式、價值、原則、脈絡等維度設計人工智能立法體系化的可能路徑。
一、人工智能立法體系性不足的表現
一般認為,數據、算力和算法是人工智能發展的“三駕馬車”,其中大數據是人工智能發展的基礎,云計算是人工智能發展的平臺,而深度學習是人工智能發展的手段,三者之間的聯系極為緊密。當前,我國涉人工智能法律規范總體上呈現出“碎片化”特點,具體表現為“概念不清”“定性不準”“理念不彰”“范疇不明”“脈絡不暢”五大問題。
(一)人工智能的概念含混不清
在我國涉人工智能法律規范文本中,鮮見針對人工智能本質特征和特有屬性的明確定義,大多數文件只是在涉及人工智能的語句中零散地給出特征描述詞或者類型歸屬詞,難以準確闡明何謂人工智能。即便《深圳經濟特區人工智能產業促進條例》(以下簡稱《深圳人工智能條例》)、《上海市促進人工智能產業發展條例》(以下簡稱《上海人工智能條例》)和GB/T 41867-2022《信息技術 人工智能術語》(以下簡稱《人工智能術語國標》)制定了專門界定人工智能意涵的定義性條款,但三部文件的屬概念分別側重“行為論”“本體論”“知識論”,種差特征在“人工智能的方法”“人工智能的結構”“自主性標準”等方面存在分歧,并且對“是否需要列舉人工智能的外延/類型”也沒有達成共識。誠然,形成合理的法律概念是科學構筑法律體系、清晰表達法律內容、準確適用法律規范的前提條件,當前規范文本中含混不清、位階不高、確定性不足的人工智能概念致使不同規范的適用范圍存在交叉重疊,極易造成重復性立法、矛盾性立法以及立法漏洞等問題,進而減損法律適用的穩定性;特別是在人工智能集成應用、高速迭代、場景泛在的發展狀態下,共識性定義缺失將會導致國家權力對產業發展的干預范圍和控制程度模糊化,誘發科技創新的“寒蟬效應”。
(二)人工智能立法的定性不準
在學理上,法律規范的性質關乎其在立法譜系中如何定位,不同類型的部門法之間不僅法律關系的內容不同,而且植根于部門法的立法精神和價值導向更是不同。在傳統部門法視域下,涉人工智能法律規范的性質界定尚不清晰。譬如,“使用人臉識別技術處理個人信息”是典型的涉人工智能法律行為,而司法解釋將其納入私法意義上“信息處理者侵害自然人個人信息權益”的民事法律關系。又如,“利用個人信息進行自動化決策”也是算法行為的重要類型,規制該行為的條款主要存在于《中華人民共和國個人信息保護法》(以下簡稱《個保法》)中,有學者認為該法是配套實施《中華人民共和國民法典》(以下簡稱《民法典》)的重要法律,屬于公法和私法的混合,但《個保法》的內容大多是關于民事權利和義務的規定,因而其與《民法典》之間是“特別法與基礎法”“特別法與普通法”或者“單行法與基本法”的關系。這就意味著調整“利用個人信息進行自動化決策”行為的條款似乎更多地表征著私法屬性的民事法律關系。除了將人工智能規范定性為民事規范,有學者在描述人工智能立法特點時,將《中華人民共和國網絡安全法》(以下簡稱《網安法》)、《中華人民共和國刑法》對個人信息的保護、《中華人民共和國反壟斷法》對“利用數據和算法實施壟斷”的規制以及智能網聯汽車、人工智能醫療、互聯網信息服務算法、深度合成算法等領域的行政管理規范,都歸為人工智能立法,而這些規范表現出顯著的“公法”屬性。此外,還有學者對人工智能立法的定性超越了公法和私法的二元區分,認為其是“科技法”規范、“領域法”規范或者“核心是風險控制與問責的風險立法”規范。可見,法律實踐和學術研究對人工智能立法屬性的厘定分歧較大,立法性質界定不準將會影響立法理念在法律規范中的準確適用。
(三)人工智能立法的理念不彰
當前,涉人工智能法律規范缺乏一以貫之的基本理念來統合各類價值。一是作為立法邏輯起點的人工智能法律概念中沒有嵌入價值理念,但“法律概念也承擔著法的調控任務,受制于目的論”,人工智能法律概念的價值傾向可以經由解釋學通道直接影響立法目的實現程度。譬如:《深圳人工智能條例》在界定人工智能時“輸出端”和“目標端”雙重缺失;《上海人工智能條例》中“最佳結果”也指代不明;即便《人工智能術語國標》設置了“針對目標產生輸出”的單向線性結構,但目標對輸出的“反饋/修正”等逆向性特征并未體現。二是不同法律價值之間缺乏消解沖突、平衡利益的決斷依據。同樣是針對“高風險”的人工智能,《上海人工智能條例》嚴把準入關,設置了“清單式管理”和“合規審查”兩道門檻,并且明確規定合規審查的實質標準是“必要、正當、可控”;而《深圳人工智能條例》只是在程序上要求“事前評估”和“風險預警”,沒有從實體上直接劃定人工智能類型“禁區”,相對而言,市場準入空間較大。究其原因,一方面,人工智能治理要求“包容共享”“開放協作”“共擔責任”,相對統一的準入門檻有利于防止市場碎片化、促進跨地區資源共享,并在地區協作治理時降低責任分配的協作成本;另一方面,人工智能治理也要求“安全可控”“敏捷治理”,預先設定較高準入門檻成為倒逼安全措施升級、能動防范風險的強有力手段。因此,兩部條例設置差異化準入標準,不僅僅是考慮到地方資源和發展方向的特殊性,背后反映的深層次問題是不同價值之間難以平衡,只能暫時“妥協”而偏重單一價值,其根源正是當前政策及立法文本中沒有確立能夠合理融貫各類法律價值的根本理念和有效消解價值沖突的合理方法。
(四)人工智能立法的范疇不明
從“效力位階”和“客體類型”審視涉人工智能法律規范,其整體上呈現出“非正式法律淵源數量多于正式法律淵源,并且正式法律淵源以部門規章和地方性立法為主導”,以及“涉數據要素的規范數量最多、涉人工智能整體的規范次之、涉算法要素的規范較少、涉算力要素的規范最少”的體量分布格局。從“規范內容”來看,數據立法重在維護數據/信息安全,并激勵大數據產業發展、促進公共數據開發利用;針對人工智能整體的立法側重于促進智能制造業升級,并且重點扶持智能網聯汽車行業,而涉及“通用人工智能”和其他應用場景的立法較少;算法領域主要是規制“深度合成服務”和“算法推薦服務”的部門規章,涉及“算力/云計算”的正式法律淵源缺位,即鼓勵大模型創新應用和算力基礎設施完善的規范基本是“紅頭文件”類的政策指引,目前該領域尚未出臺專門立法。此外,涉人工智能法律規范也存在于名稱上不直接冠以“智能或其要素”但某些條款涉及該客體的立法中,譬如規制“推薦類算法”(大數據殺熟)的《中華人民共和國電子商務法》第18條,此類條款往往散見于《網安法》《個保法》《中華人民共和國數據安全法》(以下簡稱《數安法》)等法律法規,總體而言數量稀少。誠然,觀察人工智能的視角不同,涉人工智能法律規范呈現的特征也不同,由此引發的問題是:是否所有涉人工智能法律規范都可以被納入人工智能立法范疇?具言之,該問題項下主要涉及“人工智能立法范疇是否需要限定在正式法律淵源之內”“針對人工智能單一要素的立法是否屬于人工智能立法”,以及“針對人工智能整體的立法或其他法律法規中的涉智能條款,能否不加區分地直接將其歸為人工智能立法”等子問題。鑒于此,只有妥善解決人工智能立法范疇問題,才能有的放矢地進行體系化作業。
(五)人工智能立法的脈絡不暢
涉人工智能法律規范基本將《個保法》作為其立法根據,但該法難以成為保障人工智能合理利用的一般性法律。無論是在價值理念上側重于保護個人免受過度數字化控制,抑或利益分配時傾向對信息處理者科以嚴格義務,該法“強監管、弱激勵”的整體導向使下位配套規范形成路徑依賴,甚至出現實質上超越上位法精神的潛在違法風險。以立法中“反算法歧視”條款對“輸入端”數據的控制方式為例,企業能夠利用的數字資源被不斷壓縮,并且框定數據利用范圍的標準也越發模糊。作為上位法的《個保法》第24條沒有從“數據庫”層面直接干預企業利用個人信息,只是要求“算法透明”或者在“輸出端”控制結果;而《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦規定》)第21條開始控制“輸入端”內容,不當利用消費者偏好、交易習慣等特征數據,成為認定差別待遇的要件;《生成式人工智能服務管理暫行辦法》(以下簡稱《AIGC服務辦法》)第4條則更進一步,在“輸入端”將控制范圍從“利用”延展到“研發”,在“訓練數據選擇”時便要求采取措施防止出現歧視,并且用戶民族、國別、性別等特征數據也被剔除。然而,《中華人民共和國立法法》第91條第2款要求,部門規章的權限僅在于執行法律,不得設定減損私主體權利或者增加其義務的規范,不得增加本部門的權力或者減少本部門的法定職責,據此反觀兩部規章和《個保法》的關系,二者在體系協調上存在違法風險。一是不當增加信息處理者義務。上位法規制“算法歧視”時主要在“輸出端”為個人信息處理者配置義務,無論是要求“提供多元選項或者拒絕選項”,抑或賦予個人“請求說明權或者拒絕權”,都沒有在算法設計和數據選擇層面為企業增加過多負擔。二是不當擴張監管者權力。規制“算法歧視”的關鍵舉措是防止出現“不合理差別待遇”,上位法的控制對象是經算法處理后的“交易價格”這一輸出結果,而部門規章的控制對象是“算法利用行為”,即上位法不對算法本身的架構、運行原理進行合理性審查,但部門規章需要審查算法設計及其部署方式。三是整體的權利義務分配機制失衡。監管者自我約束不足,“結果公平公正與否”“差別待遇合理與否”“內容歧視與否”以及“防止歧視的措施實施、有效程度如何”等皆是裁量空間較大的模糊標準;私主體權益保障不足,對抗國家審查權力和個人請求權利的“抗辯性企業權利”在立法中難尋蹤跡。因此,從體系脈絡看,《個保法》的起始邏輯并非為了發展人工智能而是“人格尊嚴保護至上”,由其統率的涉人工智能法律規范沒有在整體上對數據和算法的內在牽連性予以系統關照,利益配置時也不當地向部分主體過度傾斜。
二、人工智能立法體系化的對象框定
“在法律工作范圍內之體系性思考的目標則是,將眾多的規范與事實安排進一個秩序里,由此創造一個統一體。”要創造這樣一個統一體,必須按照一定的標準,框定應予安排進該統一體的規范與事實的具體范圍。
(一)識別體系化對象的三道濾網
1.第一道濾網:明確人工智能的應然法律概念
雖然人工智能立法方興未艾,但無論是其調整對象確定,抑或制度、規則設計,皆需要借助明確的人工智能法律概念在規范與事實之間搭建溝通橋梁,以期實現法律對社會關系的合理調控。
從既有立法素材中“提取公因式”是形塑法律概念的重要方法,不同規范文本的人工智能概念之間只有達成“最低限度共識”,才能確保領域法語境下人工智能規范集群中各類規范的調整對象不至于過度偏離人工智能的中心語義和社會認知預期。系統梳理域內外涉及人工智能的規范性文本以及中國法學界對人工智能的學理界定,并在“屬概念—種差—外延”這一經典認知框架下檢視各種定義模式之優劣,進而引入“事物本質”理念和“系統—控制論”原理重構人工智能的法律概念,可以得出如下結論:其一,就屬概念而言,應當從人工智能全生命周期厘清各個節點的關系。人工智能并不直接指涉“科學或者學科”,其首先應當是一種信息處理“系統”,而“程序、模型和機器”則是該系統的軟硬件組成部分;對智能系統的科學研究或技術研發,稱為“人工智能科學”,其范疇包括人工智能“知識、原理、方法和技術”等;科學成果轉化、投產后,形成“人工智能產業”、制造出“人工智能產品”;而人工智能作為一種“權益”,受制于特定的政策背景和法理話語,并且具有較強的評價性色彩和邏輯上的后置性,不能成為界定人工智能法律概念的術語。其二,就概念內涵而言,應當結合功能型定義模式和發生型定義模式,以期同時實現對“理性智能體”的“目標控制”和“行為控制”。具言之,人工智能是依托算力基礎設施,通過控制系統的算法處理輸入的數據,以軟件或硬件等多元集成方式嵌入系統后輸出,或者直接在具體場景中輸出對人類某種理性功能的模擬狀態,在環境中進行交互,并在目標約束下經過反饋修正,最終完成預設任務的信息系統。該種信息系統的法律本質為“理性智能體”,是界定其法律地位的主要依據。該定義的法學構造主要包括數據、算法、軟件/硬件、目標/任務、反饋、輸出等相互影響、互為制約的基本要素,以及這些要素在“系統—控制論”原理下的各種內生性或外顯性行為(譬如“黑箱”“集成”“功能模擬”“變換”等)。其三,就概念外延而言,人工智能既包括外觀上模仿生物人但本質上是集成軟硬件的“智能機器人”,也包括單純的智能系統(如ChatGPT)或硬件設備(如智能傳感器),以及嵌入這些軟硬件的其他“智能體”(如自動駕駛汽車)。
2.第二道濾網:厘清人工智能法律規范的屬性
法律關系的客體作為法律關系主體發生權利義務聯系之中介,由其承載的法律關系之性質關涉不同類型制度之間的界分,成為識別調整對象的第二道濾網。
首先,在人工智能全生命周期中,不同節點的立法價值導向有所差異。針對“人工智能科學”的立法著眼于研發端,重在科技倫理、科技政策的法律化“轉譯”;針對“人工智能產業”和“人工智能產品”的立法著眼于市場端,重在激勵生產積極性、提高商品流通效率、維護公平秩序和保障消費者權益;而“人工智能法”則著眼于智能系統的運行、維護端,重在防范、化解人工智能部署、利用時產生的整體性社會風險。其次,人工智能系統各要素作為法律關系之客體,其承載的法律規范并非全都屬于人工智能立法。事實上,涉及人工智能的法律規范由“范圍和監管模式大相徑庭”的多層次規則組成,主要分為“規范數據使用的數據規則”“針對特定AI應用程序或應用程序域的AI規則”“適用于廣泛人工智能應用的通用人工智能規則”“應用程序特定的非人工智能規則(適用于特定活動,但不適用于人工智能)”,以及“通用的、跨領域的非人工智能規則”等不同層次,其結構、穩定性和相關度皆是不均衡的。只有相關法律行為能夠映射人工智能的法律概念,二者在“系統—控制論”原理上實現耦合,才能將該條款歸入人工智能立法范疇。譬如,僅涉及數據處理前端的數據確權、個人信息權益保護、數據流通交易等規范,并不符合人工智能法律關系客體的完整內部結構——具備“輸入—輸出”反饋鏈條的系統——所承載的行為模式及法律后果,因此不宜定性為人工智能法律規范。最后,人工智能立法主要著眼于公共利益維護。原因在于,(一些)環境法具有預防性、系統性和監管導向性,人工智能系統的危害在結構上類似于環境危害,往往也是系統性、社會性的而不僅僅是個體性的;并且,該種損害如同環境損害一樣,實際上是未來致害的風險而不完全是既得傷害,因而很難具體衡量和追蹤因果關系,受害人也會同樣面臨集體行動的問題。基于以上考慮,人工智能立法的性質應當是超越公私二元結構的“風險立法”,其法律關系的內容主要是針對人工智能系統造成的大規模社會性損害,為相關主體設置損害救濟權利、風險防范(監管)義務,以便合理分配各方責任。
3.第三道濾網:彰顯人工智能立法的理念欲求
誠然,經過法律概念和法律性質兩道濾網篩選,人工智能法律規范的結構特征和問題面向已基本清晰,但錨定人工智能立法范疇還需要進一步在價值層面明確人工智能法律規范的共同理念。
從國內外發布的人工智能政策、法規,以及理論研究和法治實踐看,“發展負責任的人工智能”在國際社會中已達成廣泛共識,該理念是關于人工智能應當如何研發、部署、使用、評估以及治理的提議或規范性聲明,它由一系列確保人工智能透明、負責和合乎道德的基本原則構成,以促進人工智能技術的使用與民眾的期望、組織的價值觀以及社會的法律規范一致。進言之,“負責任的人工智能社會治理是一種前瞻性社會治理、預期治理,以及針對人工智能開發與應用風險的全過程治理;構建負責任的人工智能社會治理體系,關鍵在于樹立責任共同體意識,實現從個體責任意識到共同責任意識的轉變”。因此,判斷涉人工智能法律規范應否被歸入人工智能立法,目光需要在“規范內容和立法目的之間來回穿梭”,通過衡量行為方式、法律后果、權利/義務構造、風險分配,以及利益保護程度等,挖掘其中蘊含的價值判斷及其作用范圍,進而真正“理解”法規范的意義。以《個保法》第24條第3款為例,結合第73條第1款第2項對“自動化決策”的定義,該項的規范結構與人工智能應然法律概念內嵌的“系統—控制論”原理基本相符;進一步結合該法第70條針對“個人信息大規模侵權”所設計的公益訴訟制度進行體系解釋,該款也符合人工智能法律關系對“系統性應對社會風險”的內容要求;如果該款能夠被歸入人工智能立法,還需要在人工智能全生命周期視域下審視其內在價值是否契合“發展負責任的人工智能”理念。進言之,該款的預設立場和價值導向是對完全自動化決策的默示允許,更傾向于在保護信息主體的基礎上平衡人工智能產業發展,并且“重大影響”的判斷標準也從側面反映了我國立法對人工智能產業的保護。因此,《個保法》第24條第3款的權利義務構造基本實現了“私權利”主體、“私權力”主體和“公權力”主體三方關系的平衡,即該款的利益分配模式有利于“發展負責任的人工智能”,可以將其納入人工智能立法范疇。
(二)錨定人工智能立法的范疇
法律淵源依效力差異分為“正式法律淵源”和“非正式法律淵源”,本文側重于從正式法律淵源層面對“三道濾網”識別出的人工智能法律規范進行分類分層,并以“系統—控制論”原理為基底設計法律淵源的體系架構。根據各類規范調整對象之差異,可以將人工智能法律淵源區分為“調整人工智能整體的狹義人工智能立法”和“調整人工智能要素/基礎設施的廣義人工智能領域立法”,其他部門法或領域法中涉及人工智能的法律規范則歸入“廣義的人工智能領域立法”。需要注意的是,本文對人工智能法律淵源類型層次的劃分基于“共時性”而非“歷時性”視野,其中既包括已經出臺的法律規范,也包括未來可能會制定的法律規范。
其一,“狹義的人工智能立法”根據“基本法、特別法和附屬法”的不同特征,區分為三類。第一類是兼有基本法和一般法屬性的“人工智能法”,譬如歐盟的《人工智能法》、我國預備提請全國人大常委會審議的“人工智能法草案”等;我國“人工智能法”的調整對象應當是能夠覆蓋人工智能全生命周期的法律關系,基于這些法律關系建構的法律制度相較于其他狹義的人工智能立法而言,往往具有根基性、抽象性和通用性。第二類是“人工智能法的特別法”,譬如針對實體性智能的“機器人法”、針對非實體性智能的“數字人法”以及《AIGC服務辦法》《上海市智能網聯汽車測試與應用管理辦法》等涉及人工智能具體類型或特定場景的人工智能立法;從體系關系看,如果人工智能法的“特別法”屬于創制性立法,應當結合場景特質和地方特色對人工智能法的立法目的、基本原則、關聯制度等進行特定化、精細化處理,但不得從實質上違反作為上位法的人工智能法的基本精神;不過,我國人工智能立法并未因循效力位階采取“自上而下”的立法模式,而是采取領域立法、地方立法先行先試的“自下而上”模式,在時機和條件成熟時,對既有立法成果進行“編纂”,進而形成領域一般法。第三類是“附屬人工智能法”,《網安法》《個保法》《數安法》等從整體上著眼于人工智能某一要素的法律法規不屬于人工智能專門立法,相關條款如果只是單純分配數據權益、保護個人隱私或施加數據安全義務,也不符合人工智能立法意旨;反之,如《個保法》第24條規制“利用個人信息進行自動化決策”行為以矯治“算法歧視”風險,其調整的涉法事實是具備“輸入—輸出”控制結構的閉環系統,并且內嵌“網絡、數據、算法等要素相互影響、互為制約,共同決定輸出模型的質量”這一智能系統運行機理,因而基于該“理論構造”設計的權利義務規范在嵌入“發展負責任的人工智能”理念后可以作為“附屬人工智能法”進入狹義人工智能立法的范疇。
其二,“廣義的人工智能領域立法”主要涉及“人工智能基礎設施(或基本要素)的立法”以及“傳統部門法、領域法與人工智能的交叉”兩大版塊。譬如,《上海人工智能條例》《深圳人工智能條例》屬于“人工智能產業法”;如果未來有專門制定或部分修訂針對人工智能的“科技促進法”“產品質量法”等相關立法需求,則將該部分條款歸入科技促進法、產品質量法等領域立法的特別法較為適切,其屬于傳統領域法與人工智能的交叉。不容忽視的是,雖然《算法推薦規定》《互聯網信息服務深度合成管理規定》等以“算法”治理為核心的規范在名稱上也只是涉及人工智能某一要素或某種技術,但算法較之于數據、算力等要素處于系統“中樞”位置,在一定程度上映射出人工智能運行機理的本質特征,若相關條款以“系統—控制論”為線索能夠在體系解釋上形成事理脈絡關聯,那么可將這些條款的集合作為制度整體“打包”納入“狹義的人工智能立法”范疇;當然,“算法安全評估”“算法備案”等只涉及算法本身的規范,仍然只能歸為“廣義的人工智能領域立法”。
誠然,諸如《全球人工智能治理倡議》、《新一代人工智能規劃》、《最高人民法院關于規范和加強人工智能司法應用的意見》(以下簡稱《人工智能司法意見》)以及《人工智能術語國標》等聚焦人工智能發展、治理的宏觀政策、司法意見和技術標準等“軟法規范”,其作為非正式法律淵源對人工智能法治建設也具有重要指導意義,如果能在某種程度上總結提煉這些規范的實施效果,那么“在新的智慧法治秩序背景下,習慣、技術與法律均將供給秩序”。
三、人工智能立法體系化的實現路徑
(一)人工智能立法體系化的方法
為了解決人工智能立法體系性不足之困境,首先需要明確達至體系化立法的理想狀態所依據的方法,在此基礎上回歸“事物本質”理念,以內嵌“系統—控制論”原理的人工智能法律概念為基點,以體系化方法為指導,重新規整人工智能立法范疇內的規范素材。
1.遵循立法體系化的一般要求
立法體系化是法律人規整法律素材、建構法律制度、確保法秩序統一、系統性解決社會問題時必不可少的元方法,可以將體系化立法的理想狀態提煉為“立法要素的內在邏輯保持一致”(以下簡稱“邏輯一致性”)、“立法脈絡能夠維系整體性意義關聯”(以下簡稱“脈絡關聯性”)以及“立法價值在規范中融貫表達”(以下簡稱“價值融貫性”),這三個標準也是判斷法律體系是否科學、合理的重要依據。如果說“邏輯一致性”建構出立法體系的“骨架”,那么“脈絡關聯性”則是立法體系的“血肉”,而“價值融貫性”成為立法體系的“靈魂”。
概言之,“邏輯一致性”作為消極性底線標準,要求立法體系中的法律概念不得違背形式邏輯法則,進而各層次的法律規范之間可以通過“增減類型特征”方式在概念譜系中互相推演;“脈絡關聯性”要求內部體系和外部體系依靠“類型序列”形成聯結,特別是當多個類型要素同時出現在某一具體客體上時(即“類型混合”),揭示不同類型要素以特定方式結合在一起(各要素“共同作用”下)所構成的規則體內在的意義脈絡關聯;“價值融貫性”表現為一種內聚性,即屬于一個融貫整體的陳述必須得到這一整體之內其他陳述的支持,因而法的價值理念也需要在法律規范中融貫地表達。
2.延續“事物本質”的理念
“事物本質”理念不僅是生成人工智能法律概念的中樞,而且是構筑人工智能領域立法體系的理論基點。若想在立法體系中彰顯人工智能的法律本質,不僅需要明確其社會關系的根本特征,而且要求立法者根據事理之不同對事物做出不同的處理。
具言之,建構人工智能立法體系既要在自然科學意義上將人工智能“追溯到普遍的自然法則”,揭示“系統—控制論”語境下人工智能的運行機理,也要通過法學上的構造“將制定法中現存的某種規則體或者行為模式整合到體系之中以產生無矛盾的脈絡關聯”,而檢驗“系統—控制論”構造可靠性時應當依據法學特有的方式——通常是“邏輯性衡量”和“目的性衡量”,并且“最終具有決定性的是從理論中獲得的與規范效力有關的結論語句在事理上的妥當性”。之所以選擇“系統—控制論”作為行為整合和目的嵌入的理論工具,原因在于“長期以來,有無目的一直是劃分生物科學與技術科學的分水嶺,而智能研究的新方向便是在兩種科學中找到其共性,并將生物系統和技術系統連接起來;它們的目的性在負反饋的基礎上得到統一,而控制論所講的目的就是系統與環境間的反饋,也是一種智能表現的過程”。維納開創的控制論在系統科學中引入“應然”范疇,促成系統論從“單純探索客觀規律”向“研究目的性并強調發揮能動性”發生重大轉向。而且,現代控制理論與人工智能的“標準模型”——設計性能最優的系統——也大致相符,因為人工智能一直專注于研究和構建“做正確事情的智能體”,而何謂正確的事情則是由人類為智能體設定的“目標”決定的,這種普遍范式就是“標準模型”,不僅在人工智能研究中盛行,而且普遍適用于“控制論”,即通過“控制器”來實現成本函數最小化。因此,“系統—控制論”能夠為立法體系實現“脈絡關聯性”和“價值融貫性”預留空間,在人工智能發展的自然規律和人工智能治理的社會規律之間形成紐帶。
3.嵌入“系統—控制論”原理
以“系統—控制論”為線索建構人工智能立法體系,需要在原理上進一步明確人工智能各要素之間如何形成聯結,以及系統整體的運行機制。在方法論層面,分析系統原理通常需要“確定要分析的系統”“確定系統的目標”“確定系統的結構和功能”“描述系統組件之間的關系”“識別目標和功能之間的不一致性”五個步驟。
對維納的經典控制論原理進行“哲學化約”,可以創制出融貫“目的”與“行為”等特殊內涵的概念體系——主要包括“狀態、變換、過程”“信息、反饋、控制”“輸入、輸出”“施控、受控、控制系統”四組范疇,以及控制論范式下新的科學方法——“功能模擬”“黑箱方法”“信息反饋”。進言之,第一組范疇表征系統內部諸要素之間的關系、信息量和變化特點;第二組范疇表征主客體之間通過循環往復的信息修正來改變行為控制效果的過程;第三組范疇表征系統本身與外部環境之間的交互關系;第四組范疇表征主體目的以及趨達目標的行為。就三種方法而言,以功能模擬為基礎的“智能模擬”通過計算機硬件、軟件把思維的物質手段和物質外殼(即語言和算法)結合起來,自動地高速進行復雜信息處理,主要包括感知、聯想、記憶、思維以及輸出效應等模擬對象;黑箱方法是指“不打開黑箱而通過外部觀測試驗,利用模型進行系統分析,通過信息的輸入和輸出來研究黑箱的功能和特性,探索其結構和機理,著重于研究整體功能和動態特性”;信息反饋實質上是利用系統活動的結果來調整系統的活動,即根據過去的操作情況調整未來的行動。
基于此,“系統—控制論”原理與人工智能立法體系化的耦合點已經清晰:輸入的數據可能受專利、版權和商業秘密法的約束,黑箱中運作的算法可能影響基本權利的決定,傳感器的功能(反饋)可能會受到疏忽(過失)和產品責任(嚴格責任)索賠,系統輸出可能受到知識產權法的保護并影響基本權利。而且,在人工智能與控制科學日益走向合璧的趨勢下,智能控制的綜合集成方法將專家群體、數據和各種計算機技術有機結合起來,構成一個更加復雜的系統,在一個相互作用、相互影響的環境中通過人機結合實現智能互補,充分發揮系統的整體優勢和綜合優勢。如此一來,智能系統的信息綜合集成、人機結合、人機互幫、智能互補等命題進一步放大了技術與制度之間的“協同演化”效應,意味著“系統—控制論”原理對人工智能領域法律規范的形成機制——立法體系化——的型塑將更加深刻,進而要求人工智能立法應當“從行為主義走向生態主義,從算法治理走向人機交互界面治理”。
(二)人工智能立法的模式選擇
人工智能立法在“是否應當構建獨立的法律體系”問題上,主要存在“現行法律部門之下進行場景化規制”“科技法框架內設置獨立領域法”“單獨構建人工智能法律體系”三種路徑。前兩種模式傾向于“寄人籬下”,認為延續現有法律部門的立法脈絡足以容納人工智能法律關系。一是“場景規制”論,主張根據人工智能具體應用領域進行場景化立法,通過修改現有法律使其能夠兼容人工智能技術的衍生風險。二是“科技領域法”論,主張將人工智能立法作為科技立法的特別領域法,既要延續科技立法在“市場、風險、政策”領域的一般規定設置人工智能一般法,還要顧及人工智能具體場景或者功能類型,并與部門法進行交叉設計人工智能特別法。第三種路徑傾向于“另起爐灶”,認為應當建構新型人工智能立法框架,但內部存在分歧。一是綜合性立法和具體場景立法相結合的“總分式立法”體系,綜合性立法是進行人工智能頂層設計的最佳形式,通過專門的中央立法可以強有力地指導各地、各領域的人工智能發展;該部專門的綜合性法律將人工智能用于不同場景中所遵循的共性規則進行提煉,作為規范人工智能多場景應用的基本規則;對于人工智能領域立法可以采取“以基本法為主體,產業法和技術標準法為分支”的融貫型立法模式。二是由發展價值和安全價值分別統率的“二元立法”體系,主張制定“人工智能發展法”和“人工智能監管法”,為市場準入環節監管提供法律依據和參照標準。三是區分立法層次和規范類型的“分層分型”體系,認為人工智能立法應當包括“智能科技、智能要素以及智能應用”三個基本層次,不同層次的風險發生、表征與治理機制不同;或者將人工智能作為一種新興科技,在現有“產業促進法和風險治理法”兩組規范類型的基礎上進行更新。此外,有學者雖然認同制定獨立人工智能法的必要性,但其調整模式分屬公法和私法兩種不同進路:既有學者強調建立以人工智能專門法為主、以相關分散式法律為輔的公法規制體系,形成立法、執法、司法共同監管人工智能風險的公法規制合力;也有學者沿襲“民法精神主線”而不是市場規制,將“人工智能法”區分為雙層構造——具有公法面向的國家安全、網絡安全、數據安全和個人信息保護“基礎層”以及建基于其上的人工智能法“內容層”。
“寄人籬下”的立法模式難以適應社會數智化轉型的需要,延續部門法“圈地割據”的底層邏輯致使人工智能無法在既有部門法譜系中恰當定位。譬如:人工智能輸入端的公共數據具有無形性、載體依賴性、非消耗性、可無限復制性、快速更新性等物理特征,難以為傳統法律關系的客體“物”所容納;在利用公共數據訓練人工智能時,公共數據可以被無限復制,不會因重復利用而損害使用價值,反而整體利用會價值倍增,這一特性也使得對公共數據利用的激勵制度不能照搬傳統法的“產權控制”思路。進言之,公共數據種類紛繁,數據訓練的算法迭代更是日新月異,以深度合成為代表的人工智能技術具有場景泛在性,“成為網絡虛擬空間與現實物理世界虛實結合、融為一體的關鍵應用技術”,在此基礎上利用公共數據建構數字空間(譬如虛實融合的“智慧城市”、完全虛擬的元宇宙)所衍生的新型法律問題,如果依靠“場景規制”或者選擇傳統科技法來解決,不僅會因人工智能應用場景繁多、易變、復雜而頻繁立法,致使法律規范數量膨脹、穩定性降低,還會因只將人工智能視為科技法意義上的“成果”、將目光局限于研發端而難以全方位顧及人工智能“人機互動”甚至“人機融合”的新特性所引發的生產生活關系的顛覆性變革。因此,只有“另起爐灶”構筑人工智能立法體系,才能有效回應智能社會變遷帶來的法律治理難題,但當前主流的人工智能立法思路尚有不足之處,特別是缺乏系統規制人工智能要素整體的理念以及平衡價值沖突的方法,未能形成契合人工智能發展規律、貫穿人工智能全生命周期的整體脈絡。這就要求選擇一種“提綱挈領”式的立法模式,將統籌整個立法體系的根本價值追求和串聯立法體系各部分的基本線索固定下來。進言之,應當在“法律”層級適時制定一部兼具框架性和包容性的“人工智能法”,該法具有“總體性、保障性、邊界性和統一性”特征,于“金字塔頂端”發揮基本法、一般法的統率功能,并且以其為核心的人工智能立法體系擁有獨立領域法的基本特質;既有的人工智能產業立法、人工智能要素立法和人工智能場景的行政規制等,除了具有總則意義的部分條款經立法技術“改造”后提級為上位法,其他內容應當凸顯自身“執行性”“地方性”“行業性”等立法特色;立法主體也要以“人工智能法”為統領及時修訂或廢止相關規范,確保人工智能立法整體協調。
(三)人工智能立法的價值體系
人工智能立法的價值欲求在“應當以何種價值作為法律治理人工智能的目標”或者“應當以何種價值作為串聯人工智能領域立法譜系的內在線索”問題上分化為“價值一元主義”和“多元價值協同”兩種模式。一是以“正義”為中樞的一元價值論,其內部又大致分為“數字正義”和“普適正義”兩條路線。“數字正義”觀將“數據正義、代碼正義和算法正義”嵌入人工智能立法并具體化為若干原則;或者以“數字權利”“算法規制”和“算法評估”為中心,分別優化數字正義的基礎機制、實施機制和保障機制。“普適正義”觀以正義原則善待人類“福祉和尊嚴”,將集體層面、個體層面的“福祉”以及維持人類特性、尊重人類基本權利的“尊嚴”,共同作為人工智能治理的價值/目標追求;也有學者對“普適正義”進行細化,認為“人格正義、分配正義和秩序正義構成了人工智能立法的正當性基礎”,而“安全、創新、和諧”則構成了“人工智能法”作為專門法的特別價值。二是“以人為本”的價值一元主義。“人工智能法”的立場主旨應彰顯人本主義,其核心內涵是“人類的地位高于機器,人起主導作用而機器起輔助作用,并且在使用人工智能時應當以人的權利保障為優先”;在確立“以人和人類利益”為最高價值目標的同時,積極構建人類與人工智能交互的“主體間性道德體系”,確保“以人為本”基礎上的人工智能立法達至“個體利益與整體利益的統一”。三是“二元價值平衡”模式。譬如有學者直接強調人工智能法的核心目標是“安全與發展并重”;又如“良善植入+創新與安全平衡”觀主張人工智能立法體系應當平衡創新與安全價值,并將功利主義的“良善”概念植入人工智能立法規則;再如有學者雖然沒有明確提出價值平衡理念,但其設計的“以推動人工智能技術創新和防范人工智能技術風險為立法目的”以及該目的之下的“公平、可靠可控可信、安全與發展并重和合規性”四大原則,實質上已經蘊含了價值平衡思想。四是“多元價值分層”模式。譬如“社會價值+功能價值”觀不僅提出了人工智能專門立法的價值依歸,而且進一步給定了不同立法價值的位階,即“倫理、安全、公平、包容(人的社會性價值)優先于創新、競爭力提升、生產力提升、效率(功能性價值)”,換言之,人工智能立法的科學性體現在“通過道義論門檻(安全、權利和人性)檢驗的基礎上尋求功利原則支持”;又如有學者主張將“社會主義核心價值觀”融入人工智能立法,從“富強平等”“民主公正”“和諧法治”和“文明自由”四個維度探討其與人工智能立法的融合進路;再如有學者在智能科技層面將“阿西莫夫—機器人三法則”的內容轉化為基本的法律價值以指引“人機關系”秩序,在智能要素層面將“保護隱私、數據平權、算法透明等”作為智能要素立法需要堅守的新法律價值取向。此外,還有學者雖然采取“價值多元主義”進路,但沒有明示不同價值類型之間的關系,只是將人工智能立法的應然價值予以列舉。譬如有學者主張將《新一代人工智能治理原則》《新一代人工智能倫理規范》等規范中的“以人為本、公平公正、安全可控、透明可解釋”等倫理和原則吸納為基本原則,同時增加“敏捷治理原則”,以此承載人工智能應當予以遵循的價值目標。
誠然,“正義具有一張普羅透斯似的臉”,無論是試圖結合人工智能要素重塑正義內涵的“數字正義”論,還是將普適正義直接平移為人工智能立法的底層理念,從正義出發自上而下式填充人工智能立法的價值欲求,始終難逃正義話語的不確定性。從“正義論”與“多元價值論”的交集看,采取何種正義方式妥善矯治“公平與效率”或者“安全與創新”這一對價值沖突引發的利益分配失衡問題,較之于追問“正義究竟是什么”,更有利于維護整體法秩序的安定。事實上,正式立法文本中罕見直接表達對“正義”的追求,諸多法律價值往往通過“法律原則”條款進行規范化改造后實現形式轉換。如前文所述,“發展負責任的人工智能”理念及其包含的原則,涵蓋了人工智能全生命周期需要滿足的全部條件,可以最大限度預防或減少人工智能應用中的不利后果,因而備受世界各國青睞。一方面,該理念在價值體系的頂端發揮著錨定體系化對象、平衡價值沖突的導向功能;另一方面,其作為人工智能立法的根本價值追求,不僅內嵌了“協調人工智能發展與治理關系”的價值判斷準則,而且《人工智能治理原則》提出的八項具體內容從“增進人類共同福祉”“推動人工智能創新”等發展面向的要求與“保障人權”“公平公正”等負責任面向的要求出發,進一步揭示了“發展與負責”之間的有機關聯。進言之,通過對國家政策、倫理規范和部分立法中的價值類型“合并同類項”,人工智能立法的具體價值至少應當包括“公平”“效率”“安全”“創新”;但人工智能立法的基本原則并不完全是對價值內涵的重復闡釋,而應當在價值沖突時提供決斷理由,即基本原則既是立法價值的載體,也是解釋規范的依據,還是填補法律漏洞的依據;因此,人工智能立法的基本原則可以大致概括為“平衡公平和效率”以及“平衡安全和創新”。從合憲性看,兩條基本原則表達的“平衡”理念也是科技現代化過程中接續《中華人民共和國憲法》“協調發展”精神的必然要求;同時,兩大基本原則在價值體系中處于“發展負責任的人工智能”理念與人工智能立法的具體原則的“中間地帶”,向上承接、闡釋抽象理念的價值意涵并向下傳遞,進而制約具體原則的適用方式。
當然,人工智能立法的具體原則因其部署場域和所處生命周期節點的差異,在具體化時有所不同,應當根據基本原則限制其適用范圍。譬如,解釋《人工智能司法意見》時需要遵循司法規律,結合司法人工智能產品和服務的特殊性,在前述基本原則制約下進行。以“平衡公平和效率”為例闡釋人工智能立法基本原則和具體原則的關系,雖然《人工智能司法意見》提出的“透明可信原則”傾向于維護公平價值,但不能一味強調“算法公開”或者對研發主體、使用主體科以過多的算法解釋義務,而應當在基本原則內嵌理念的約束下權衡相關主體之間的利益關系。以“系統—控制論”范式的人工智能法律概念為基準,檢視“算法黑箱對程序正義形成沖擊”的問題,實質是“輸出端和輸入端對正當程序的違反,獨立于過程本身是否公開”,即“對輸入端而言,如果輸入端只向特定群體開放,并且該部分開放與算法本身的目標沒有關聯,即違反正當程序;對輸出端而言,只要程序輸出結果是單一性的,那么就可以反過來推斷,該做法也違反正當程序”,因此“實現程序正當需要在輸入端確保群體開放和目標控制,以及在輸出端滿足結果多元”。這就意味著,算法解釋義務重在控制“輸出端和輸入端”的公平狀態,而“犧牲算法本身的解釋需求”更多是考量效率價值;具言之,技術層面的算法解釋成本過高,并且對用戶而言,即便公開原始代碼,用戶也難以理解。可見,只有從“平衡公平與效率”這一基本原則出發對“透明可信原則”進行限縮解釋,才能合理確定算法“可解釋”要求的程度。
(四)人工智能立法的譜系線索
在多元化的人工智能風險行為處于“類型混合”狀態時,“系統—控制論”能夠超越邏輯鏈條,在人工智能風險行為的物理性特征和評價性特征之間搭建溝通橋梁,將外顯形態不同的人工智能風險行為特定化為契合“事物本質”的法律行為。基于“系統—控制論”建構人工智能風險行為的控制方式和控制結構,一般不采用“集中控制”模式,因為這種大系統模型具有維數高、關聯復雜、目標多樣等特點,使傳統建模方式面臨較大困難,可以在“結構分析”方法指導下通過“層次分解”分別確定針對不同“目標”的建模類型,采用“分散控制+遞階控制”模式來優化控制機制。進言之,分散控制中各類控制方式是同級的,以此為線索建立人工智能“研發—生產—服務—使用”行為全鏈條橫向控制,每一類行為可以稱之為“人工智能全生命周期的節點行為”,并且這些節點行為中一致嵌套了“系統—控制論”構造,即“(信息)輸入—反饋(基于目標)—輸出(結果)”的理論構型,而不同節點應當根據該基本構型對具體風險行為進一步特定化。遞階控制意味著節點內部的行為風險需要層級化,并且不同節點的行為風險層級不同。譬如,研發節點的數據輸入風險分層控制方式,與使用節點的數據輸入風險分層控制方式是不同的,即便都涉及“敏感數據”,但二者因所處節點的“事理”和“價值導向”差異,對同一風險行為的控制力度不同。此時,“分散控制+遞階控制”作為人工智能法律規范體系化的底層邏輯,能夠將不同行為予以法律定型并聚合在統一的“系統—控制論”事理脈絡之下。
我們進一步通過圖1來簡化闡釋各類人工智能法律關系的核心特征及其內在脈絡關聯,以此為基礎形成人工智能立法制度譜系的基本線索。橫軸從左至右呈現了人工智能的四重指稱功能,依次是人工智能技術(研發)、人工智能產業(生產)及由此衍生的人工智能產品(服務)、人工智能系統(使用)。進言之,橫軸左端的節點行為側重人工智能的“研究”面向,涉及認知科學、生物科學、計算科學甚至社會科學(取決于所采用的方法)等概念;橫軸右端側重人工智能的“利用”面向,旨在完成那些需要人類智力才能做到的事情。從行為內容看,橫軸左側的人工智能表征“以某些領域科學專家為代表的行動者群體所建構的知識體系”,專家提出的理論往往被轉化為技術系統,先在特定領域進行測試,然后推廣使用;如果技術系統的產出十分豐富,并且超越了純粹研究活動的范疇,就會滑向橫軸右側,正是由于技術系統的背書證明了該學科的實用性,引起了投資者的興趣、滿足了使用者的需求。第二個觀察維度——控制軸,主要分為兩類控制模式:第一類將控制人工智能設想為需要具體實現的項目,第二類更多地將控制人工智能看作抽象的思辨對象。第一類模式有助于制定技術標準和法律規范,或系統性建構一門規制科學,其目標是“具體風險控制”;第二類模式無論是傾向于一種反烏托邦的未來學,抑或一種與可能性有關的解放性批判意識,其總是指向一個抽象的社會政治模式,即目標是“抽象權利保護”。換言之,具體控制模式關注方法的特殊性,主要依據系統運行的現實情況進行逐案分析;抽象控制模式則指向一般性范疇,如“算法歧視風險”“勞動關系異化”“人的主體性喪失”等問題。不可否認,一般性話語也有助于制定人工智能控制的具體規范,因為其不僅能夠限定人工智能控制問題的構建方式,而且對監管活動具有促進作用;更重要的是,其還為那些以具體控制為目標的規范性文本提供實質內容,因為具體控制在很大程度上就是通過應用而使人們熟悉的抽象控制。
人工智能系統生命周期或其任何階段的子集都可以由單獨的組織(或實體)擁有和管理(例如,獲取和提供數據、機器學習模型或用于人工智能系統開發和部署的其他組件的代碼);并且一個組織也可以依賴其他組織來建立基礎設施或提供人工智能系統生命周期所需的能力(例如,跨本地、基于云或混合的基礎設施設置)。因此,橫軸建立的并不是一種“線性鏈條”,而是在考慮了人工智能系統供應鏈的影響、具體情況和相關風險行為后,跨組織邊界構建人工智能法律關系的抽象“類型”。因此,以“人工智能全生命周期的節點行為”為橫軸、以“具體風險控制”和“抽象權利保護”的控制模式為縱軸,從八個不同維度投射出具有規范性產出的“區間”,由此形成八種人工智能法律關系,而聚合同類人工智能法律規范時依據的“系統—控制論”機理,也是串聯人工智能制度譜系的基本線索之一。
圖1 覆蓋人工智能全生命周期風險行為節點的法律關系譜系
第①空間和第⑤空間呈現了“在研發領域如何控制人工智能”的兩類問題。第①空間預設的問題具有預判性(未來性),即如何確定那些可能脫離人類控制的人工智能技術被研發成功的條件或判定標準,以及被制造出來的可能時間。這種控制方式最為抽象,因為它從一種試圖克服人類局限性的“理想型政治社會”角度來評估人工智能。相反,第⑤空間的發問對這些前瞻性考慮興趣寥寥,它更想搞清楚的是,面對科學家制造出來的“智能系統”引發具體弊害時,研究人員應當如何歸責;如果從人類中心主義立場考慮,該領域規范往往傾向于劃定“研發禁區”,即設置禁止研發的系統類型、不得實施的某種實驗行為,以及不能利用的某種實驗材料等,這些規范的底層邏輯通常建基于科技倫理。
第②空間和第⑥空間表現了“在產業(生產)領域如何控制人工智能”的兩類問題。第②空間所涉問題是在“人工智能產業化和產業人工智能化”浪潮下,整體意義上的“勞動關系”可能會發生怎樣的顛覆性轉變,以及如何確保人類不被“異化”為客體。這種控制同樣較為抽象,因為它也是從一種試圖克服人類局限性的“理想型經濟社會”角度來評估人工智能。相反,第⑥空間更加關注人工智能產業發展引發的經濟關系變化,該領域規范重在保護兩種價值:一是“公共利益”層面的公平市場秩序,二是“個體利益”層面的企業發展權益。既不能過度放任市場自由,也需要適度干預市場行為。
第③空間和第⑦空間表達出“在產品(服務)領域如何控制人工智能”的兩類問題。第③空間所涉問題相對具體,關注人工智能產品(服務)大規模部署應用時,如何確保人格尊嚴不被侵蝕,即怎樣防范“網絡、數據、算法等人工智能各要素相互聯結、共同作用下,人工智能運行的內生性風險”,譬如防止歧視性的數據輸入和帶有偏見的算法輸出,保障人類在經受算法決策時的知情權等。與之相對,第⑦空間更關注提供各類人工智能產品或服務的主體,如何保證其產品質量、確保其服務合格,以及一旦發生人工智能產品致人損害或提供的人工智能服務侵權時,如何判斷侵權構成、如何確定歸責原則、如何分配侵權責任等,最終落腳至受損害的利益得以填平并且未來致害風險得以預防。
第④空間和第⑧空間主要回答“使用人工智能系統的用戶如何控制人工智能”的兩類問題。第④空間與第③空間相似,所涉問題比較具體,關注人工智能系統被社會群體(消費者)廣泛接受時,用戶如何處理好“不同用戶之間”和“用戶與非用戶(第三人)之間”的“人工智能系統使用關系”,問題關鍵在于,采取何種方式確保人際關系處于合理的距離。譬如,可以嘗試賦予受人工智能影響的相關主體“侵害防御權”“主動避險權”等,只不過用戶和第三人的權利構造及行權條件因情勢不同而有所區分,典型場景如“元宇宙空間中如何在法律層面實現自我保護”。進言之,第⑧空間的視角切換至使用者,控制該類主體可以采取設定一系列義務的方式,但最基本的積極義務是“合理使用人工智能系統”,最基本的消極義務是“禁止濫用人工智能系統”,具體義務可以在這兩個原則之下進一步類型化。
整體上,雖然人工智能法律關系相互交錯關聯,但這“八重空間”有助于突出規制人工智能的政治、經濟和社會利害關系,它們共同構成了規范性沖突的背景圖,使我們能夠將規制的場合、參與規制的不同主體,以及不同性質的規制方法映射其中,從而在人工智能全生命周期系統性建構法律規范體系。
四、余 論
誠然,本文在論及制度體系時因篇幅所限未能全面展開制度內容并深入論證制度選擇的必要性、正當性和可行性,但基本明確了形成制度體系的內在線索和制度建構所依據的法律關系譜系;未來,仍需從我國人工智能立法素材中不斷總結制度建設經驗,并比較借鑒域外法,進一步完善人工智能法律制度藍圖。經過前述作業,具有邏輯一致性、價值融貫性以及整體性意義關聯的人工智能立法體系至少在方向把握和操作方法層面完成了粗線條的脈絡勾勒,框架設計也基本成型。此時,以人工智能立法體系為主要研究對象的人工智能法學可以界定為:以“發展負責任的人工智能”為理念追求,以“系統—控制論”為方法論指導,以涵蓋“人工智能全生命周期”的法律規范的理論建構與制度設計為內容,形成包括“總論”“數據法學”“網絡法學”和“算法規制”在內的人工智能法學學科體系。雖然人工智能法學的發展并未與人工智能立法體系化同步推進,但人工智能立法體系化過程的經驗教訓需要通過人工智能法學不斷總結并上升為教義學知識;同時,人工智能法學也應當具有一定的理論前瞻性,以期為人工智能立法體系化的法治實踐提供智識支持。
原文刊載于《華東政法大學學報》
《數字法治》專題由上海市法學會數字法學研究會特約供稿,專題統籌:秦前松。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.