建言
2024年2月,OpenAI發布的文字轉視頻模型Sora在智能影像生成領域取得突破,被視為具備“世界模擬”能力,Sora在展示其應用潛力的同時,進一步提升了真實與虛假界限辨別的難度。生成式人工智能對現有數據、算法、算力分而治之的治理范式提出了嚴峻挑戰,網絡安全、數據安全、個人信息保護、數據跨境流動等現有制度還存在不相容之處,治理范式、現有理論均存在缺失,急需制度完善以促進產業發展。
原文 :《探索治理邊界 健全生成式人工智能發展》
作者 |同濟大學上海國際知識產權學院副院長、教授 姜南 同濟大學上海國際知識產權學院博士研究生 李鵬媛
圖片 |網絡
生成式人工智能引發的風險挑戰
信息捏造的風險。生成式人工智能在信息生成方面的強大能力帶來了虛假信息的滋生。客觀數據的偏差和主觀需求的操控使得生成的信息具有極高的迷惑性,對社會公眾認知的真實性提出了嚴峻挑戰。如何有效應對信息捏造問題,保障信息的真實性和可信度,成為當務之急。
數據隱私的風險。生成式人工智能服務的普及使得用戶將個人或企業內部數據不可避免地上傳到相關系統中,存在較大的數據及商業機密泄露風險。生成式人工智能對數據的敏感性和影響力呼喚著對數據隱私安全性更為嚴格的管理和監管。
信息壟斷的風險。生成式人工智能的算法和數據瑕疵可能導致嚴重后果,且其在市場上可能形成信息壟斷,提高信息甄別成本。算法的共謀和推薦可能導致企業進一步擴大壟斷,甚至通過算法預警方式扼殺其他生成式人工智能企業。
責任機制的風險。生成式人工智能仍然是數據驅動型產品,基于數據生命周期對相關協議進行責任分析,表現出責任承擔機制不明的情況。過度收集、未明確數據挖掘原則以及對數據共享與傳輸規定的缺失,給生成式人工智能產品方帶來數據合規、數據挖掘可責性等方面的挑戰。
知識產權的風險。生成式人工智能的高智能化程度對知識產權的歸屬提出了新的挑戰。雖然OpenAI公司在ChatGPT的《共享和發布政策》中提到生成內容的歸屬屬于用戶,但仍然存在一系列知識產權爭議。
強化生成式人工智能治理的政策啟示
強化生成式人工智能治理的頂層設計。第一,構建軟硬法結合的規范體系。在法律法規后續的配套規定中仍需加強安全平等理念的價值引領,建立靈活和反應迅速的治理框架。建立符合訓練數據性質、結構和特征的新型數據財產權制度,健全各類技術規范和技術標準。第二,依托政府與行業監管。相關部門應加強行業監督,督促企業落實倫理審查及信息披露義務,根據使用場景、安全級別、私密程度、敏感程度對數據分類分級、動態更新底層數據。
完善生成式人工智能科技倫理審查體系。第一,強化全生命周期審核管理。搭建涵蓋人工智能算法、數據、模型的全生命周期審核管理體系。第二,構建算法倫理審計機制。制定一套清晰的算法倫理審計標準和指南,設立獨立的機構負責算法倫理審計,培養具有倫理素養的技術專業人才。
推進生成式人工智能健康長遠發展。第一,健全科技倫理治理平臺。通過多方參與共同討論和解決倫理問題,定期舉行會議,討論當前熱點問題,分享最新研究成果,探討技術發展趨勢。第二,積極推動生成式人工智能的應用。引導企業將其應用于實際的業務場景中,充分發揮上海科教資源、人才資源、產業資源豐富的地域優勢,吸引和培育更多的人工智能企業和創新團隊,全面跟進生成式人工智能發展趨勢。
政策的制定應該充分考慮技術創新的推動力,同時確保倫理和法律框架的健全性,通過規范、標準和監管機制,進一步平衡社會公共利益、用戶和企業的權益,從而促進生成式人工智能的健康發展。
文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1899期第2版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:王立堯
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.