當前,人工智能技術快速發展,對經濟社會發展和人類文明進步產生深遠影響,也帶來難以預知的各種風險和復雜挑戰。在日常生活中,利用人工智能技術處理自然人的聲音并進行商業化應用的情形較為常見,公眾通常難以區分哪些是“合成”的聲音,哪些是自然人的聲音。一些企業濫用人工智能技術,未經授權隨意“合成”足以以假亂真的聲音用于經營性活動,引發公眾對發展人工智能技術的擔憂,應當依法予以規制。然而,對于“合成”聲音是否侵犯自然人合法權益、侵犯何種權益,法律上并無明確規定,實踐中亦存在一定認識分歧,亟待通過確立裁判規則予以回應。對此,人民法院案例庫入庫參考案例《殷某楨訴北京某智能科技公司等人格權糾紛案(入庫編號:2025-07-2-474-001)》明確了經人工智能技術處理的聲音受聲音權益保護的認定標準,即“對于人工智能技術處理后的聲音,一般社會公眾或者一定范圍內的公眾根據音色、語調和發音風格,能夠識別出特定自然人的,則該聲音屬于自然人聲音權益的保護范圍。未經自然人許可使用經人工智能技術處理的聲音,構成對自然人聲音權益的侵權”,為類案裁判提供借鑒和參考。現就有關問題解讀如下:
一、經人工智能技術處理的聲音屬于自然人聲音權益保護范圍的認定
聲音與肖像、姓名一樣,都是民事主體的外在表征。民法典第一千零二十三條規定“對自然人聲音的保護,參照適用肖像權保護的有關規定”,明確將自然人聲音權益作為人格權予以保護。據此,民法典關于肖像的認定、肖像權的權能及合理使用等規定,適用于對自然人聲音權益的保護。根據民法典第一千零一十八條第二款關于肖像的定義,肖像具有可以識別特定自然人的屬性。因而,自然人聲音受到人格權保護的前提,也應當是具有識別特定自然人的屬性。實踐中有爭議的問題在于,經人工智能技術處理后的聲音是否落入自然人聲音權益的保護范圍。對此,應當從自然人聲音權益的認定標準出發,能識別出該特定自然人的,可以認定為屬于該自然人聲音權益的保護范圍,反之則不能受自然人聲音權益的保護。
關于聲音的可識別性認定標準,可以從處理方式角度,結合主客觀因素綜合考量。根據聲音的處理方式具體分為兩類:一類是直接使用自然人聲音,如通過音頻、視頻等形式對自然人聲音錄制、公開、模仿、拼接、篡改等;另一類是利用人工智能技術合成新的聲音。本案例即為第二類合成聲音的情形。聲音領域的人工智能技術通常是指文本轉語音,即利用深度學習技術對自然人聲音數據進行學習,通過文本轉語音操作。
經人工智能技術合成后的聲音是否具備可識別性,關鍵在于能否識別出自然人主體身份。對此,不能僅依靠聲紋辨認、聲紋確認的客觀標準,還需結合使用方式,將新的聲音的音色、語音語調、發音風格等與自然人聲音作對比,同時根據自然人的社會知名度,采取一般社會公眾、一定范圍內公眾的主觀標準進行綜合判斷。例如,對于知名人物,由于其聲音音色、語音語調、發音風格等獨特性,通常為一般社會大眾所熟知,此時以一般社會公眾能否識別作為判斷標準進行判定;而對于配音演員等從事與聲音密切的行業的人員,應以在一定范圍內(如配音領域內)公眾能否識別作為判斷標準。
本案例中,殷某楨是配音演員,經當庭勘驗,某軟件公司利用人工智能技術處理后形成的聲音與殷某楨的音色、語調、發音風格等具有高度一致性,能夠引起一般人產生與殷某楨有關的思想或感情活動,能夠將該聲音聯系到殷某楨本人,進而識別出殷某楨的主體身份。因此,案涉經人工智能技術合成的聲音屬于殷某楨聲音權益的保護范圍。
二、人工智能技術處理聲音構成侵權的認定
民法典第九百九十五條規定:“人格權受到侵害的,受害人有權依照本法和其他法律的規定請求行為人承擔民事責任。受害人的停止侵害、排除妨礙、消除危險、消除影響、恢復名譽、賠禮道歉請求權,不適用訴訟時效的規定。”該條規定為自然人的人格權益受到侵害時的救濟提供法律依據,從而實現保護人格尊嚴的目的。本案例系人格權侵權案件,按照民法典關于侵權責任的有關規定,認定被告的行為是否構成對殷某楨聲音權益的侵害,應從侵害行為、侵害后果、因果關系、主觀過錯等方面綜合考量。關于侵害行為方面,本案例中被訴侵權行為有二:一是未經自然人許可使用其聲音用于訓練素材,二是未經許可使用經人工智能技術生成的聲音。具體而言:
第一個侵權行為涉及人工智能訓練素材的“投喂”過程。通常而言,訓練方將自然人的聲音片段進行“投喂”,“投喂”的素材越多,生成的聲音準確度、還原度就越高。在“投喂”聲音的過程中,還可以進行微調訓練,讓人工智能自主學習“投喂”的聲音數據的音色、音調等信息,而隨著訓練次數的增加,生成的聲音就與該自然人的聲音越相似。由于“投喂”訓練素材需要使用自然人原本的聲音,若未經自然人許可就直接使用,則構成對自然人聲音權益的侵害。根據查明事實,殷某楨為某文化公司錄制錄音制品,某文化公司依照約定對錄音制品享有著作權等權利,但不享有授權他人處理并使用殷某楨聲音的權利。某文化公司將并非殷某楨本人簽署的《數據授權書》提供給某軟件公司,允許某軟件公司以商業或非商業的用途使用、復制、修改數據用于其產品及服務。某軟件公司僅以殷某楨錄制的一部錄音制品作為素材進行人工智能處理,生成了案涉聲音,而殷某楨本人也未直接參與兩家公司的合作協商,且殷某楨并未授權某文化公司對外許可對其聲音進行人工智能處理。因此,某軟件公司是在未經殷某楨本人知情同意的情況下,利用人工智能處理并使用殷某楨聲音,該行為無合法權利來源,構成對殷某楨聲音權益的侵犯。
第二個侵權行為是某軟件公司在經營活動中使用了經人工智能技術生成的聲音。生成后的聲音是對殷某楨原始聲音的模仿,容易讓公眾誤認為是殷某楨本人的聲音,可能會造成其人格尊嚴的貶損,而某軟件公司將未經授權處理生成的聲音制作成文本轉語音產品,授權他人在網絡平臺上銷售,而北京某智能科技公司購買該文本轉語音產品后,直接在其平臺中使用,導致案涉聲音在網絡上被廣泛傳播,上述行為侵犯了殷某楨的聲音權益。
此外,關于侵害后果方面,聲音權益屬于法定的人格權益,適用人格權請求權有關規定。行使人格權請求權不以造成損害后果為要件,對于可能發生的妨害或者已經存在的妨害,權利人可以通過停止妨害請求權尋求救濟。行使侵權請求權則需要以存在一定損害作為前提,以對權利人的損害進行補償救濟。同時,人工智能技術處理聲音的侵害行為與侵害后果發生之間應當存在因果關系,被告據此承擔相應的責任。本案例中,某文化公司與某軟件公司的案涉侵權行為造成了殷某楨聲音權益受損的后果,應當承擔賠償損失的法律責任。其他被告對此不存在過錯,不承擔損害賠償責任,但應當承擔相應賠禮道歉責任。
有必要提及的是,人工智能訓練素材的合法性問題較為復雜,世界范圍內尚無成熟解決方案。對此,本案例明確了使用自然人聲音作為訓練素材的,使用人應當有較高的注意義務,未取得自然人授權且不屬于合理使用的,構成人格權的侵權。同時也應看到,人工智能技術的快速發展,給人格權保護帶來前所未有的挑戰。在此背景下,如何發揮司法職能作用,推動在法治軌道上加強和完善人工智能治理,不斷提升人工智能技術的安全性、可靠性、可控性、公平性,是人民法院工作面臨的時代課題,需要在實踐中不斷探索,并形成有益的裁判規則。
來源:人民法院報
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.