隨著“人工智能”技術的迅猛發展,如今社會中的各個領域都深受其影響。從醫療診斷的精準輔助,到交通出行的智能調度;從娛樂視覺領域的個性化定制,到金融行業的風險預測與防控,人工智能如同催化劑,加速推動各行各業的創新升級。
然而,在這股技術浪潮中,諸多問題悄然浮現。例如,AI換臉技術遭濫用、數據隱私泄露事件頻發、責任界定模糊不清等問題逐漸凸顯,給社會帶來了潛在風險。
廣東省政協委員,廣東恒福律師事務所創始合伙人、主任林翠珠觀察到,當前人工智能領域尚處于一種無序的“野蠻生長”狀態。在今年的省兩會上,她帶來了“關于盡快出臺規范人工智能行業法律法規”的提案,針對人工智能發展過程中的亂象與痛點,提出極具針對性的建議,其中包括依據風險等級實行AI準入管理等舉措。
林翠珠指出,目前,全球范圍內多個國家和地區已經開始著手制定人工智能的法律法規,例如,歐盟通過了《人工智能法案》,在此方面,我國立法相對滯后。這不僅影響了我國在全球人工智能治理領域的話語權,也給國內人工智能產業的健康發展帶來了潛在風險。
她進一步分析道,在數據隱私與安全問題方面,當下的人工智能系統存在過度收集、濫用以及泄露用戶數據的風險;在責任界定方面,當人工智能系統出現故障、錯誤決策或引發損害后果時,責任歸屬的判定往往引發諸多爭議。
“這些問題可能導致一部分人工智能企業肆意擴張、AI技術被濫用,也會導致部分企業因擔心潛在的法律責任而不敢大膽創新和應用人工智能技術。”基于此,林翠珠呼吁,盡快啟動規范人工智能行業法律法規的立法程序,明確人工智能發展的基本原則,如以人為本、安全可控、公平公正等;確立人工智能活動的主體范圍,包括人工智能研發企業、使用者、數據提供者、監管機構等各方的權利、義務和責任;建立人工智能責任保險制度,鼓勵企業購買保險,以分散潛在的法律責任風險,保障受害者能夠及時獲得賠償,維護其合法權益。
此外,林翠珠強調應根據風險等級實行AI準入管理。“可以將AI系統分為四個風險類別,即最小風險、特定透明度風險、高風險和不可接受風險。”林翠珠解釋,最小風險AI系統,如垃圾郵件過濾器和AI視頻游戲,基本上不受法律法規約束,但鼓勵采用行為準則;特定透明度風險的AI系統,例如聊天機器人,必須明確告知用戶,他們正在與機器交互,并且某些AI生成的內容必須被標記為AI生成;高風險AI系統,如醫療軟件或招聘中的AI系統,必須遵守嚴格的要求,包括風險緩解系統、數據集的高質量、清晰的用戶信息和人類監督等;不可接受風險的AI系統,例如某些類型的生物識別分類、社會評分和預測性警務,應被法律明確禁止,禁止AI進入。
她還特別提出,相關的法律規定可以設置緩沖期,在不同的時間生效。例如,不可接受風險的AI系統,可以在相關法律法規生效后六個月實施;高風險系統的相關規定比較嚴格,可以在相關法律法規生效后三十六個月實施。“如此一來,既為市場主體提供了規范其行為的法律依據,又給予市場一定的自我調節時間。”
資訊來源 | 羊城晚報
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.