圖片來源 視覺中國
本文為《中國審判》雜志原創(chuàng)稿件
文| 福建省寧德市蕉城區(qū)人民法院 繆拯民
隨著科技的快速發(fā)展,生成式人工智能技術(shù)逐漸走入人們的日常生活,在文學(xué)創(chuàng)作、藝術(shù)設(shè)計等眾多領(lǐng)域得到廣泛應(yīng)用,為人們提供了便利。但是,由于人工智能生成的內(nèi)容往往涉及大量已有的知識、數(shù)據(jù)和信息,不可避免地會產(chǎn)生涉及知識產(chǎn)權(quán)的糾紛。目前,關(guān)于人工智能生成內(nèi)容的知識產(chǎn)權(quán)歸屬和保護問題存在一定爭議,一定程度上影響了相關(guān)案件的審理。基于此,筆者擬針對生成式人工智能的知識產(chǎn)權(quán)問題進行探討,以期為當(dāng)前該領(lǐng)域的理論研究及相關(guān)的審判實踐提供有益參考。
01
生成內(nèi)容的界定及實踐分析
生成式人工智能生成內(nèi)容指的是基于大數(shù)據(jù)與大算法,人工智能模型在自我學(xué)習(xí)的基礎(chǔ)上,生成與人類創(chuàng)造物較為相似的作品。從本質(zhì)上看,生成式人工智能模型創(chuàng)作的過程屬于運用算法自我深度學(xué)習(xí)的過程。通過模擬人類的創(chuàng)作,完成從信息輸入到信息搜索、整合加工、智能輸出的流程。生成式人工智能生成的內(nèi)容不同于傳統(tǒng)的人工智能,其生成內(nèi)容不需要人工作出過多的干預(yù),操控者僅需輸入預(yù)定的目標即可。這是生成式人工智能模型最核心的能力。
目前,理論界尚未就人工智能生成內(nèi)容的性質(zhì)形成統(tǒng)一的觀點。針對人工智能模型生成內(nèi)容,部分學(xué)者將其稱為人工智能創(chuàng)作物;部分學(xué)者認為人工智能生成內(nèi)容仍屬于人類的智力成果,并將其與計算機程序的生成內(nèi)容同等看待,主張給予其同樣的法律地位。
近年來,人工智能生成類知識產(chǎn)權(quán)糾紛案件數(shù)量呈上升態(tài)勢。公開資料顯示,全國法院受理各類知識產(chǎn)權(quán)一審案件從2014年的13.39萬件增長到2023年的54.41萬件,年均增長超過30%。2024年2月,國務(wù)院新聞辦公室就國家層面知識產(chǎn)權(quán)案件上訴審理機制運行情況舉行發(fā)布會。據(jù)最高人民法院知識產(chǎn)權(quán)法庭相關(guān)負責(zé)人介紹,最高人民法院知識產(chǎn)權(quán)法庭受理的案件中,涉及大數(shù)據(jù)、人工智能、基因技術(shù)等新領(lǐng)域、新業(yè)態(tài)糾紛逐漸增多,給司法保護規(guī)則制度帶來更多新的挑戰(zhàn)。具體表現(xiàn)在以下方面:一是法院受理的案件數(shù)量持續(xù)增長,而且涉案標的額日益增大;二是受理的案件所涉的技術(shù)前沿日益擴展,新類型糾紛不斷涌現(xiàn);三是涉外案件的占比較大,訴訟的國際性凸顯;四是案件的地域分布不均衡,關(guān)聯(lián)案件較多。目前,關(guān)于生成式人工智能相關(guān)的權(quán)益歸屬的認定問題,相關(guān)法律仍需完善。在處理人工智能生成內(nèi)容知識產(chǎn)權(quán)糾紛案件時,法院主要通過查證某項人工智能生成內(nèi)容是否完全是人工智能自動運行的結(jié)果進行判斷,這一做法容易產(chǎn)生一定的爭議。
02
相關(guān)爭議焦點分析
生成式人工智能技術(shù)的發(fā)展日趨成熟,越來越多的領(lǐng)域開始將該技術(shù)應(yīng)用于生產(chǎn)環(huán)節(jié),因此,社會各界應(yīng)當(dāng)加大對相關(guān)知識產(chǎn)權(quán)的保護。然而,關(guān)于人工智能生成內(nèi)容是否可以被認定為智力成果,實踐中存在一定爭議。有觀點認為,人工智能生成內(nèi)容不應(yīng)被認定為智力成果,理由是創(chuàng)造智力成果屬于人類特有的行為能力。生成式人工智能模型只是機器,無論其工作能力有多強,都不應(yīng)認定機器具有創(chuàng)造智力成果的能力。基于此,依據(jù)《中華人民共和國著作權(quán)法》(以下簡稱《著作權(quán)法》)對于作品的定義,該內(nèi)容就不屬于法律調(diào)整的對象,不受法律保護。筆者認為,這一觀點值得商榷。
首先,一件成果能否被認定為智力成果,與創(chuàng)造者是否為自然人并無絕對關(guān)系。例如,法人與非法人組織均不屬于自然人,其依然可以成為《著作權(quán)法》規(guī)定的著作權(quán)人。一旦法人與非法人組織創(chuàng)造出成果,如果符合相應(yīng)條件,仍然可以被認定為《著作權(quán)法》調(diào)整范圍內(nèi)的智力成果。由此可見,從理論上來說,生成式人工智能模型可以被授予“擬制作者”的身份,進而人工智能模型生成的內(nèi)容也能夠被認定為智力成果,受到法律調(diào)整。
其次,生成式人工智能模型在工作流程上具有相對獨立性。在此基礎(chǔ)上,生成式人工智能依靠程序算法完成內(nèi)容輸出的過程,與自然人的創(chuàng)作具有相似性。以AI自動寫作程序為例,如果操控者在程序中輸入關(guān)鍵詞“學(xué)習(xí)”,那么自動寫作程序很快就可以生成一篇文章。當(dāng)操控者將文章內(nèi)容刪除,并要求重新生成時,自動寫作程序又會生成一篇主題相同但內(nèi)容完全不同的文章。由此可見,生成式人工智能模型能夠在獨立思考的基礎(chǔ)上,生成人類不可預(yù)測的內(nèi)容。因此,在一定程度上,生成式人工智能模型的生成內(nèi)容應(yīng)該被認定為智力成果,納入知識產(chǎn)權(quán)相關(guān)法律調(diào)整的范疇。
最后,如果生成式人工智能生成內(nèi)容不屬于知識產(chǎn)權(quán)法律調(diào)整的范疇,那么一旦出現(xiàn)侵權(quán)糾紛,就無法確定對應(yīng)的義務(wù)與權(quán)利歸屬,難以明確權(quán)利義務(wù)主體關(guān)系,只能按照民法領(lǐng)域的一般原則認定權(quán)利義務(wù)關(guān)系,無法將《著作權(quán)法》等專門法律運用其中。這在一定程度上會導(dǎo)致產(chǎn)生糾紛雙方權(quán)利義務(wù)關(guān)系模糊、處理結(jié)果缺乏針對性等問題,難以真正實現(xiàn)案結(jié)事了,甚至?xí)巩?dāng)事人對判決結(jié)果產(chǎn)生不滿。此外,如果生成式人工智能模型與生成內(nèi)容之間不成立權(quán)屬關(guān)系,而是將實際操控者視為創(chuàng)作主體,那么也應(yīng)該基于現(xiàn)有法律規(guī)定,完善與生成式人工智能相關(guān)的法律規(guī)范,以期進一步處理各個權(quán)益主體之間的權(quán)利義務(wù)關(guān)系。
03
保護路徑建議
(一)充分保護人工智能生成內(nèi)容
與傳統(tǒng)創(chuàng)作不同,人工智能生成內(nèi)容的誕生更多地依賴于使用者的內(nèi)容輸入與算法處理,這不僅涉及編程者的智力勞動,還包括使用者的輸入與算法的運行。這種多元參與的特性使得人工智能生成內(nèi)容的知識產(chǎn)權(quán)歸屬難以簡單界定。一方面,編程者創(chuàng)造了生成式人工智能系統(tǒng),為內(nèi)容的生成提供了技術(shù)基礎(chǔ);另一方面,使用者的輸入直接影響了內(nèi)容的創(chuàng)作風(fēng)格。因此,在人工智能生成內(nèi)容的版權(quán)歸屬問題上,需要綜合考慮多方面因素,尋求一個合理的平衡點。
現(xiàn)行的知識產(chǎn)權(quán)體系以人為中心,對于人工智能生成內(nèi)容知識產(chǎn)權(quán)歸屬問題并未作出明確規(guī)定。這使得對于人工智能生成內(nèi)容的知識產(chǎn)權(quán)權(quán)屬資格、價值及侵權(quán)責(zé)任歸屬等問題,難以準確判斷。筆者認為,在法律無法在短期內(nèi)修改完善的情況下,相關(guān)部門可以進一步重新審視現(xiàn)有的法律法規(guī),進一步明確適用于人工智能生成內(nèi)容知識產(chǎn)權(quán)保護的法律規(guī)范。
首先,可以參考《中華人民共和國民法典》(以下簡稱《民法典》)侵權(quán)責(zé)任編中的相關(guān)內(nèi)容。雖然人工智能生成內(nèi)容并非傳統(tǒng)意義上的“人”所創(chuàng)作,但其生成過程涉及的使用者、編程者等主體均為法律意義上的“人”。因此,當(dāng)人工智能生成內(nèi)容涉及侵權(quán)問題時,可以借鑒《民法典》中關(guān)于侵權(quán)責(zé)任的規(guī)定,根據(jù)各方主體的行為及過錯程度來判定責(zé)任歸屬。
其次,《中華人民共和國商標法》《中華人民共和國專利法》《著作權(quán)法》《計算機軟件保護條例》等法律法規(guī)形成了完整的知識產(chǎn)權(quán)法律保護體系。雖然相關(guān)法律尚未對人工智能生成內(nèi)容作出明確規(guī)定,但可以通過對現(xiàn)行法律進行解釋和擴展,以適應(yīng)人工智能生成內(nèi)容的特點。例如,可以將人工智能生成內(nèi)容的編程者視為“原始作者”,將使用者視為“合作作者”。基于此,兩者可以共同享有相關(guān)內(nèi)容的版權(quán)。
再次,關(guān)于人工智能生成內(nèi)容的管理問題,可以借鑒《中華人民共和國產(chǎn)品質(zhì)量法》等相關(guān)法律進行適用。由于人工智能生成內(nèi)容涉及多個環(huán)節(jié)和多個主體,因此,需要建立一個完善的管理機制,確保內(nèi)容的質(zhì)量和安全。因此,相關(guān)部門可以對人工智能生成內(nèi)容的過程進行監(jiān)管,確保內(nèi)容符合法律法規(guī)的要求,并依照相關(guān)規(guī)定追究相關(guān)主體的法律責(zé)任。
最后,還應(yīng)注意人工智能生成內(nèi)容的財產(chǎn)特性。與傳統(tǒng)作品相比,人工智能生成內(nèi)容的價值體現(xiàn)和實現(xiàn)方式較為抽象復(fù)雜。因此,在保護人工智能生成內(nèi)容知識產(chǎn)權(quán)的同時,還應(yīng)考慮相關(guān)內(nèi)容的財產(chǎn)權(quán)益的實現(xiàn)和保護。筆者認為,可以將人工智能生成內(nèi)容暫時歸類為虛擬財產(chǎn)進行保護。
(二)審慎評估開發(fā)者和使用者的責(zé)任
首先,大多數(shù)生成式人工智能系統(tǒng)都是根據(jù)開發(fā)者或使用者的指示運行,因此,在處理因人工智能自主操作引發(fā)的侵權(quán)問題時,法院應(yīng)當(dāng)著重審查開發(fā)者的注意義務(wù)和風(fēng)險管理。開發(fā)者在設(shè)計和開發(fā)人工智能系統(tǒng)時,應(yīng)當(dāng)充分考慮可能存在的風(fēng)險,并采取有效的措施進行預(yù)防和控制。同時,需要對系統(tǒng)的運行情況進行持續(xù)監(jiān)控,及時發(fā)現(xiàn)并解決潛在問題。
其次,隨著智能程度更高的模型出現(xiàn),預(yù)測和控制的不確定性逐漸增加。如果過度強調(diào)開發(fā)者的預(yù)知和控制義務(wù),可能會阻礙人工智能的創(chuàng)新和發(fā)展。因此,在訴訟過程中,如果涉及開發(fā)者或使用者的注意義務(wù)認定時,法院應(yīng)全面評估并謹慎把握,既要確保開發(fā)者和使用者承擔(dān)應(yīng)有的責(zé)任,也要避免給他們施加過多的限制。
最后,除了開發(fā)者和使用者的責(zé)任外,還應(yīng)充分關(guān)注人工智能系統(tǒng)本身的特性和局限性。人工智能系統(tǒng)雖然具有強大的數(shù)據(jù)處理和學(xué)習(xí)能力,但仍然無法完全替代人類的判斷和決策。因此,法院在審理使用人工智能系統(tǒng)導(dǎo)致的糾紛時,要保持謹慎和理性的態(tài)度,避免過度將責(zé)任歸于人工智能系統(tǒng)的開發(fā)者。
(三)合理分配舉證責(zé)任
鑒于人工智能技術(shù)的專業(yè)性和復(fù)雜性,法院有必要對現(xiàn)行的證據(jù)規(guī)則進行深入的審視和合理的調(diào)整,以確保合理的權(quán)益受到保護。
人工智能技術(shù)的核心算法和運行機制往往涉及大量的專業(yè)知識和技術(shù)細節(jié)。這些技術(shù)往往掌握在大型企業(yè)和平臺手中。實踐中,相關(guān)糾紛的受害人往往是小型企業(yè)或普通個人。這一群體難以對人工智能技術(shù)的運行狀況進行全面了解和評估。因此,在相關(guān)案件中,法院如果堅持“誰主張,誰舉證”原則,可能會導(dǎo)致受害者難以證明人工智能與損害之間存在關(guān)系。筆者認為,可以結(jié)合案件的具體情況,明確證據(jù)規(guī)則。具體而言,包含以下幾個方面:
首先,針對合同和類似合同糾紛中的免責(zé)條款,法院應(yīng)加大審查力度。實踐中,部分當(dāng)事人往往會利用免責(zé)條款逃避責(zé)任。因此,法院在審查時應(yīng)更加嚴格,確保免責(zé)條款的合法性和合理性。同時,在必要時,可以考慮將舉證責(zé)任轉(zhuǎn)移到行為人一方,由其證明自己的行為符合合同約定和法律規(guī)定。
其次,可以將展示人工智能技術(shù)的義務(wù)分配給行為人,即在訴訟過程中,行為人需要向法院提供關(guān)于人工智能技術(shù)的詳細信息,包括其運行原理、算法邏輯等。這樣做有助于法院更好地了解人工智能技術(shù)的實際情況,從而作出更加公正合理的判決。
最后,在法律未明確規(guī)定的情況下,可以依據(jù)公平原則和誠信原則,結(jié)合當(dāng)事人的舉證能力決定舉證責(zé)任的歸屬。這意味著法院在處理案件時,應(yīng)充分考慮雙方的實際情況和舉證能力,避免簡單地將舉證責(zé)任強加給一方。
綜上所述,明確歸屬權(quán)、完善侵權(quán)判定標準以及加強監(jiān)管和治理等措施可以更好地保護人工智能生成內(nèi)容的知識產(chǎn)權(quán),促進技術(shù)創(chuàng)新與社會發(fā)展的和諧共生。然而,生成式人工智能技術(shù)的知識產(chǎn)權(quán)保護是一個重要且復(fù)雜的問題。隨著科技的快速發(fā)展,技術(shù)創(chuàng)新層出不窮,因此,要不斷創(chuàng)新和探索新的解決思路,以期更好地解決相應(yīng)的糾紛,進一步保護科技創(chuàng)新。
本期封面及目錄
<< 滑動查看下一張圖片 >>
《中國審判》雜志2025年第4期
中國審判新聞半月刊·總第362期
編輯/孫敏
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.