2023年11月,首屆全球人工智能安全峰會在英國召開,中國、美國、歐盟等28個經濟體共同簽署了全球首份人工智能國際性聲明《布萊切利宣言》,標志著人工智能治理進入了從全球共識走向全球共治的新階段。2024年6月,國家主席習近平向聯合國貿易和發展會議成立60周年慶祝活動開幕式發表視頻致辭指出,要堅持以人為本、智能向善,在聯合國框架內加強人工智能規則治理。
人工智能是新一輪科技革命和產業變革的重要驅動力量。近年來,美歐等國家和地區在加快實施人工智能發展戰略的同時,加強了立法和行業規范制定,試圖搶奪新一輪科技治理規則制定的主導權。我國要在借鑒美西方先進治理經驗的同時,結合發展需求,從治理規則、治理手段、治理技術三個方面著力,加快構建并完善人工智能治理體系的中國方案。
2023年11月,首屆全球人工智能安全峰會在英國召開,中國、美國、歐盟等28個經濟體共同簽署了全球首份人工智能國際性聲明《布萊切利宣言》,標志著人工智能治理進入了從全球共識走向全球共治的新階段。2024年6月,國家主席習近平向聯合國貿易和發展會議成立60周年慶祝活動開幕式發表視頻致辭指出,要堅持以人為本、智能向善,在聯合國框架內加強人工智能規則治理。
人工智能是新一輪科技革命和產業變革的重要驅動力量。近年來,美歐等國家和地區在加快實施人工智能發展戰略的同時,加強了立法和行業規范制定,試圖搶奪新一輪科技治理規則制定的主導權。我國要在借鑒美西方先進治理經驗的同時,結合發展需求,從治理規則、治理手段、治理技術三個方面著力,加快構建并完善人工智能治理體系的中國方案。
一、全球人工智能治理現狀與趨勢
全球治理的概念最早是由美國學者James N. Rosenau提出,他認為全球治理是為了實現人類活動規則體系而采取的具有超出國界影響力的管理機制與控制活動。依據這個概念,可見全球人工智能治理的主要遵循是超出國界影響力的科技規則體系。當前,人工智能治理已成為大國競爭的主要戰場,人工智能的國際競爭重點正從戰略部署、科研投入、產業布局和市場爭奪等進一步延伸到國際規則制定和國際治理主導權爭奪。
(一)從“域內監管”走向“全球共治”
近年來,為避免在人工智能發展浪潮中處于落后被動局面,美西方積極對人工智能進行戰略部署,并出臺相關技術監管政策,爭奪人工智能治理的全球主導權。2023年10月30日,美國總統拜登簽署首個關于人工智能的行政令——安全、可靠和可信開發使用人工智能。該行政令要求美國科技行業制定安全保障標準,引入新的消費者保護措施。同日,七國集團(G7)發布《開發先進人工智能系統組織的國際行為準則》,就開發先進人工智能系統的公司的行為準則達成一致。這表明美國正在調整人工智能監管方式,意在拉緊盟友,加快打造全球治理民主聯盟。此外,從2023年的日本領導G7“廣島人工智能進程”、英國舉辦“人工智能峰會”、印度作為人工智能全球伙伴關系主席國,再到2025年2月法國“巴黎人工智能行動峰會”等行動來看,全球共治成為未來人工智能治理的一個總趨勢,但是呈現出各自主導的“小院高墻”,全球治理主導權爭奪初現端倪。
(二)從“源頭治理”走向“全面治理”
人工智能的治理與發展相伴相生。在弱人工智能時代,抓住基礎層的算法及數據和技術層的模型進行重點治理即可,重點把控人工智能技術引發的數據隱私和監視問題,以及技術應用產生的倫理問題;進入通用及強人工智能時代,越來越多行業、領域引入人工智能技術,除基礎層和技術層、應用層的風險源及主體越發多元,人工智能自主決策對他人造成傷害的責任追究、自主生產造假和知識產權侵犯等風險也越發復雜,治理外延不斷拓寬,已延伸至安全、人才、投資等領域,治理新時代全面開啟。2024年8月1日,全球首個全面監管人工智能(AI)的法案——歐盟《人工智能法案》正式生效。法案內容包括對AI系統安全性、透明度、可追溯性、公平性和道德標準的評估和管理,以及對AI系統監管、執法和司法審查等方面的規定。該法案將提高AI系統的透明性和公平性,并推動全球范圍內人工智能監管體系的建立和完善。
(三)逐步邁入“創新”與“監管”平衡之道
從博弈論的視角來看,當下人工智能治理在技術標準制定等競爭性領域呈現零和博弈的特征。因為這類政策的執行,常會使一方獲利,而另一方受損。因此,人工智能監管對創新的抑制問題逐漸得到關注。近年來,美國陸續發布《人工智能權利法案藍圖》(2022年)、《人工智能風險管理框架》(2023年)等文件,但這些均是非強制性指導文件,僅供設計、開發、使用人工智能系統的組織自愿執行,為人工智能創新發展創造了較為寬松的“軟環境”。與美國相對自由的治理做法形成鮮明對比,歐盟希望通過《人工智能法案》對人工智能進行“強監管”,但在法案的第12部分中,仍然有“支持創新”的專門章節,提出監管沙盒等鼓勵創新的監管舉措。在強化監管和促進創新之間如何保持平衡,已經成為各國治理政策的主要考量。
二、美歐人工智能治理舉措與特點
面對日益被人工智能塑造的世界,各國政府紛紛尋求合適的監管框架來指導和規范其發展,不同國家或地區正在有針對性地制定獨特路線,以應對人工智能帶來的挑戰。我們重點對美國和歐盟的一些治理舉措進行梳理,分析其特點和可鑒經驗。
(一)美國人工智能治理舉措及特點
美國在AI治理方面始終將技術發展放在首位,通過投資技術研究、賦權企業自治等方式,促進美國AI的有效治理。(1)依靠技術治理技術。美國政府及企業重視依靠技術投資及可信工具/系統開發提供技術治理保障,通過保障關鍵基礎設施的安全性和復原力、開發架構的韌性及系統的可信等舉措來降低技術及應用層面的威脅。例如,2023年9月,國防部啟動名為“校準信任測量和評估中心計劃”試點項目,以評估人工智能系統的可信度。(2)加強宏觀監管的同時,鼓勵企業自治。2022年10月,白宮發布《人工智能權利法案藍圖》,為人工智能系統設立了安全有效的系統、算法歧視保護等五項原則,美國各州也通過立法來治理偏見歧視等問題。在具體技術及應用治理方面,美國政府將監管權交還企業。2023年7月和9月,美國白宮先后兩次發表聲明,宣布微軟、谷歌和OpenAI等公司,及Adobe、Cohere、IBM、英偉達等8家公司,采取自愿監管措施管理AI技術開發及應用中的風險。(3)構建國際國內利益相關體的協同治理體系。美國通過舉辦聽證會等形式,鼓勵公眾、企業、行業協會、工會等利益相關體在政府制定國家戰略或決策時提意見,在國際上,加強國家間的聯盟,構建AI治理體系。2023年11月28日,美國與英國、德國等18個國家簽署協議,推動設計和使用AI的公司以確保客戶和公眾免受濫用的方式進行開發和部署,敦促企業讓AI更加安全。
(二)歐盟人工智能治理舉措及特點
與美國不同,歐盟對AI等新興技術的發展持審慎態度,強調治理優先,并進行統一治理。(1)基于“倫理優先、全面監管”的原則推動全球首個人工智能立法。歐盟在AI治理方面一直走在前列,通過構建完善的倫理及法律體系,提出了詳細的人工智能風險等級劃分標準,構建了覆蓋人工智能產品從研發到應用全過程的風險治理體系,確保在世界AI治理領域的影響力與領導力。(2)通過AI治理參與中美歐競爭,實現技術主權。據歐盟委員會聯合研究中心(JRC)數據,歐盟27國的人工智能企業數量位居世界第三,僅次于美國和中國。但從發展勢頭上看,與中美存在差距,基于這個事實,歐盟通過加強治理,構建人工智能產品、基礎設施等國家標準和治理規則,試圖主導全球人工智能技術發展。(3)積極推動國家間務實的治理合作。歐盟通過《人工智能協調計劃》推動成員國與第三國之間治理合作。成立歐洲算法透明度中心(ECAT),對人工智能國際合作開展監測評估,確保人工智能平臺算法的合規性。
(三)中美歐人工智能治理比較
近年來,中美歐均相繼出臺或將要出臺較為權威的人工智能治理政策(中國正在制定的《人工智能法》、歐盟已生效的《人工智能法案》、美國總統發布的《關于安全、可靠和可信的AI行政令》),由于人工智能政策與地緣政治、科技博弈等因素息息相關、緊密交織,目前中美歐對于人工智能治理的方式和特點仍然存在較大差異(見表1)。盡管在可解釋性、數據保護、禁止偏見、濫用技術等方面存在治理共同點,但整體來說,歐盟已出臺全球第一部關于人工智能領域全面監管的法規,并對在極端情況下違規的企業處以3 000萬歐元或者全年收入6%的高額罰款,在體系化分等級監管方面,也將對全球人工智能產業發展產生深遠影響;美國則針對具體行業,提供了風險評估和風險管理的框架,采用非強制性監管方式,鼓勵相關企業自治;中國相對而言介于美歐之間,以人工智能管理、研發、供應、使用等活動的規范引導為主,既考慮“軟”治理,又積極制定《人工智能法》、兼顧“硬”監管。
表1中美歐人工智能治理比較
中國
歐盟
美國
權威治理
文件
正在制定《人工智能法》
《人工智能法案》
總統發布《關于安全、可靠和可信的AI行政令》
主要治理
文件
《新一代人工智能治理原則》《新一代人工智能倫理規范》《生成式人工智能服務管理暫行辦法》等
《人工智能倫理準則》《人工智能白皮書》等
《人工智能應用監管指南》《人工智能權利法案藍圖》《人工智能風險管理框架》等
治理特點
以規范引導為主
倫理優先、全面監管
創新優先、鼓勵自治
治理模式
以倫理、算法、信息內容治理以及行業應用監管等為主要抓手
按照風險等級為人工智能技術應用進行分類治理
鼓勵相關企業自愿使用風險評估與風險管理框架來降低風險
治理手段
依賴行政手段(審查、備案、審批等),無普遍性高額處罰
以多種監管措施分級監管,高額行政處罰
搭建治理框架,有意避免監管對產業發展的阻礙
三、我國人工智能治理面臨的挑戰
一方面,美西方主導規則下的治理規則政治化、聯盟化風險加劇,影響我國治理國際化進程。美西方將人工智能所涉及的個人隱私、人權等問題意識形態化,以所謂“民主價值”推動建立標準聯盟,尤其是在中國參加首屆全球人工智能峰會前,美西方關于“限制中國參加AI峰會”的激烈討論,更是凸顯出我國在人工智能領域參與全球治理的被動局面。
另一方面,我國人工智能治理手段單一,以技術治理技術的“智治”能力較弱。我國目前對人工智能的治理還停留在倫理指南和制度約束上,通過發布《新一代人工智能治理原則——發展負責任的人工智能》《新一代人工智能倫理規范》《生成式人工智能服務管理暫行辦法》《關于加強科技倫理治理的意見》《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》等文件,重點把對創新主體科技倫理管理的主體責任作為主要抓手,還缺乏針對推進治理現代化的技術研發引導,沒有充分發揮人工智能提升治理能力的作用。
四、對策建議
當前,人工智能治理正加速進入全球共治新階段,我國亟須增強人工智能現代化治理能力,深度參與全球科技治理,貢獻中國智慧,提升國際話語權,搶占人工智能發展主動權。
第一,從域內邁向域外,加快我國人工智能治理規則的國際化進程。加快制定生成式人工智能安全相關國際標準,研制修訂重點領域人工智能基礎標準和安全標準。以推進落實《全球人工智能治理倡議》為契機,增強發展中國家在全球治理中的代表性和發言權。積極參與聯合國、國際電信聯盟等國際組織的人工智能治理工作,推動組建人工智能治理國際組織,確定組織權利義務,對涉及跨國屬性的科技活動進行審查、監督、管理等,明確設定人工智能安全等級、落實主體責任、保障各國公民在跨國科技活動中的權利等。推動建立完善跨國人工智能治理信息平臺,促進各國人工智能科技活動治理情況、治理進度、治理措施等信息共享。推動多邊協同共治,通過對話合作、凝聚共識,共同構建開放、公正、有效的協同治理機制。
第二,堅持促進創新和依法治理相結合,健全靈活、多維的人工智能治理手段。進一步發揮國家科技倫理委員會、國家新一代人工智能治理專業委員會的統籌指導作用,加強人工智能風險評估、倫理規范和相關法律問題研究,提高技術評估和風險評估的科學性和客觀性,加快推進制定《人工智能法》,以適度靈活的法制手段適應新技術范式,避免損害企業創新活力和信心。建立人工智能風險監測預警平臺,加強人工智能國家安全風險防范。加快制定關于人工智能分級分類治理的指導辦法,依據人工智能應用行業的不同特點,制定差異化治理規范和標準,研究建立分級分類的場景化治理機制,以適應人工智能應用的快速迭代。探索治理試點、應用示范、監管沙盒等鼓勵創新的監管措施,對技術創新給予更大包容度和試錯空間。加強對企業治理的政策宣講,推動企業自我凈化和自我規范。
第三,兼顧可信與智治,增強我國人工智能現代化治理能力。推動踐行“負責任人工智能”理念,加速實現可信人工智能技術可操控、可解釋、可問責,降低技術應用所帶來的不確定性和風險因素。構建可信人工智能基礎設施,從開發到部署全周期采用倫理嵌入設計,對人工智能訓練數據、模型、應用治理環節實施全周期安全可信治理。開展模型質量保障、數據安全評估等安全技術研發,通過技術治理手段強化大模型安全支撐。開發利用智能技術支撐治理,例如,用人工智能來識別違規內容、自動生成內容、欺詐信息等,構建基于人工智能技術支撐的數字化治理平臺,實現全時空、跨領域、跨部門的智能化治理。加強人工智能技術與社會治理場景的深度融合,建立基于人工智能技術支撐的決策體系,以感知社會運行情況、識別潛在風險態勢、預測政策演變結果等方式,及時、科學、有效地支撐決策。
免責聲明:本文轉自科技中國,原作者劉如 張娟娟。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
轉自丨科技中國
作者丨劉如 張娟娟
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.