漫談人工智能與知識產(chǎn)權(quán)
作者:董文濤 2025-01-02說起人工智能與知識產(chǎn)權(quán)的關(guān)系,需要關(guān)注兩個(gè)方面的問題:一是當(dāng)前的知識產(chǎn)權(quán)制度如何評價(jià)人工智能;二是未來的人工智能如何影響知識產(chǎn)權(quán)制度。
一、當(dāng)前的知識產(chǎn)權(quán)制度如何評價(jià)人工智能?
梅因說,法律在頒布之時(shí)就已經(jīng)落后于社會了。人工智能問題使梅因所謂的法律滯后性越發(fā)突出,但在法律尚未修訂或新法尚未制定之前,人工智能問題不得不被包括知識產(chǎn)權(quán)制度在內(nèi)的現(xiàn)行法律評價(jià)。
(一)算力
人工智能的三大基礎(chǔ)是算力、算法和數(shù)據(jù)。算力類似于基礎(chǔ)設(shè)施,即使算法再獨(dú)特,數(shù)據(jù)再龐大,沒有算力支撐也是枉然。在算力的開發(fā)與提供過程中,諸如量子計(jì)算、算力調(diào)度分配等領(lǐng)域會出現(xiàn)大量具備新穎性、創(chuàng)造性和實(shí)用性的技術(shù)方案,權(quán)利人既可以“主動公開”申請為專利,也可以“秘而不宣”作為技術(shù)秘密。
(二)算法
算法是一個(gè)既熟悉又陌生的概念,它因“大數(shù)據(jù)殺熟”“信息繭房”等網(wǎng)絡(luò)熱點(diǎn)現(xiàn)象而為國人所知曉,卻又因處于人工智能的技術(shù)前沿而神秘莫測,被稱為“黑匣子”。算法是一系列定義清晰的計(jì)算步驟與方法,旨在從特定的輸入數(shù)據(jù)集合出發(fā)經(jīng)過一系列處理過程得到期望的輸出結(jié)果。從某種意義上說,宋丹丹老師在小品《鐘點(diǎn)工》中的“把大象關(guān)進(jìn)冰箱里,總共需要三步”也是一種算法。
1、專利
算法屬于“智力活動的規(guī)則和方法”,依法不具有可專利性。而且,大模型基于自主學(xué)習(xí)還會產(chǎn)生動態(tài)算法、迭代算法,以至于算法的最初設(shè)計(jì)者有時(shí)甚至難以作出解釋,而如果連發(fā)明人自己都解釋不了自己的發(fā)明,自然也不可能申請發(fā)明專利。
當(dāng)然,既包含算法又包含技術(shù)特征的權(quán)利要求整體,則有望申請專利。根據(jù)《專利審查指南》,假設(shè)某種基于算法的專利可以實(shí)現(xiàn)計(jì)算機(jī)系統(tǒng)內(nèi)部性能的改進(jìn),提升硬件運(yùn)算效率或執(zhí)行效果,比如減少數(shù)據(jù)存儲量、減少數(shù)據(jù)傳輸量、提高硬件處理速度等,那么,它就不再僅僅是智力活動規(guī)則與方法,不再僅具有數(shù)學(xué)、統(tǒng)計(jì)或邏輯意義,還具有技術(shù)方案的物理意義,就可以申請專利。
2、版權(quán)
版權(quán)法不保護(hù)思想,保護(hù)對思想的獨(dú)創(chuàng)性表達(dá)。算法屬于思想的范疇,無法獲得版權(quán)法保護(hù)。但是,依賴算法實(shí)現(xiàn)其功能、并作為算法之表達(dá)的軟件代碼,則可以獲得版權(quán)法保護(hù)。當(dāng)前的司法實(shí)踐,需要警惕“無代碼比對”即認(rèn)定構(gòu)成軟件版權(quán)侵權(quán)的錯(cuò)誤導(dǎo)向。這一做法可能會擴(kuò)大軟件著作權(quán)的“勢力范圍”,將屬于思想范疇的算法納入保護(hù)之列。當(dāng)然,在功能、模塊、界面等方面均相同,且被告有機(jī)會接觸原告軟件,甚至被告軟件的開發(fā)人員就是原告的離職員工等情況下,如果被告拒不提交,無法實(shí)現(xiàn)代碼比對,或被告嚴(yán)重遲延提交其軟件代碼的,法院當(dāng)然可以根據(jù)舉證規(guī)則認(rèn)定侵權(quán)。
3、技術(shù)秘密
算法的“黑匣子”屬性決定了與其最契合的知識產(chǎn)權(quán)客體是技術(shù)秘密。技術(shù)秘密無須專利般的新穎性和創(chuàng)造性,只要其有價(jià)值,屬于非公知信息,且權(quán)利人采取了合理保密措施,就可以受到法律保護(hù)。
當(dāng)前,國內(nèi)不少人工智能企業(yè)都聲稱自研了一套獨(dú)特算法。比如,在國內(nèi)首起保護(hù)算法的商業(yè)秘密案件中,原告即有類似主張,而被告抗辯其采用的算法均為公開模型。法院認(rèn)為,即使為公開模型,但模型選擇及權(quán)重排序是權(quán)利人通過大數(shù)據(jù)的收集、處理和測試后的最優(yōu)選擇,屬于權(quán)利人付出勞動的成果,不為公眾所知悉,并能為權(quán)利人帶來商業(yè)利益和競爭優(yōu)勢,應(yīng)作為商業(yè)秘密予以保護(hù)。筆者認(rèn)為,由于被告算法的開發(fā)人員系負(fù)有保密義務(wù)的原告離職員工,該節(jié)事實(shí)加強(qiáng)了法官關(guān)于其不正當(dāng)性的心證,否則,如果被告開發(fā)人員與原告并無交集的話,判決結(jié)果就未必如此了。畢竟,技術(shù)秘密具有非排他性,也就是說,多家人工智能企業(yè)各自獨(dú)立開發(fā)并同時(shí)擁有相同或?qū)嵸|(zhì)性相似的算法而互不影響、互不構(gòu)成侵權(quán),這種情況是完全可能存在的。
(三)數(shù)據(jù)
數(shù)據(jù)是以電子或者其他方式對信息的記錄。從理論上講,數(shù)據(jù)可以成為商業(yè)秘密,獲得反不正當(dāng)競爭法保護(hù);數(shù)據(jù)庫整體還可能構(gòu)成匯編作品,獲得版權(quán)法保護(hù)。而根據(jù)國家的戰(zhàn)略頂層設(shè)計(jì),“數(shù)據(jù)知識產(chǎn)權(quán)”甚至有望成為一種獨(dú)立的知識產(chǎn)權(quán)客體。茲不詳述。
根據(jù)所記錄信息的內(nèi)容不同,我們不妨將數(shù)據(jù)劃分為兩類:一類是版權(quán)數(shù)據(jù),比如各類圖片、長短視頻、音樂、深度報(bào)道、小說、詩歌、論文、專著、軟件源代碼等;第二類是非版權(quán)數(shù)據(jù),比如商業(yè)秘密、專利等技術(shù)信息、公民個(gè)人信息等均不構(gòu)成版權(quán)作品的數(shù)據(jù)。目前,在人工智能產(chǎn)業(yè)中,各方爭議較大的主要體現(xiàn)在版權(quán)數(shù)據(jù)方面。
1、語料投喂
訓(xùn)練大模型的過程被形象地稱為“投喂”。如果未經(jīng)版權(quán)人許可,將其版權(quán)作品作為語料“投喂”,人工智能公司是否構(gòu)成版權(quán)侵權(quán)?且不從支持國家人工智能戰(zhàn)略、推動人工智能行業(yè)發(fā)展等宏觀的價(jià)值判斷出發(fā),單從法律層面分析,筆者也堅(jiān)定地持不侵權(quán)之觀點(diǎn),理由如下:
其一,不宜機(jī)械地認(rèn)定人工智能公司侵害“復(fù)制權(quán)”。
“投喂”的前提當(dāng)然是收集獲得包括海量版權(quán)作品在內(nèi)的數(shù)據(jù)。如果人工智能公司通過爬蟲技術(shù)從網(wǎng)絡(luò)中收集了海量版權(quán)作品,存儲于硬盤之中,那么,顯然已經(jīng)實(shí)施了版權(quán)法意義上的復(fù)制行為了。但筆者認(rèn)為,即便如此,也不宜認(rèn)定其侵害復(fù)制權(quán)。
版權(quán)人控制單純的復(fù)制行為沒有意義,只有當(dāng)復(fù)制是進(jìn)一步侵權(quán)行為之過程行為時(shí)才有必要予以單獨(dú)規(guī)制。比如,行為人印制了大量盜版書,但在被查獲時(shí)一本也沒有賣出去,自然無法認(rèn)定其構(gòu)成侵害發(fā)行權(quán),但是,印制盜版書的目的顯然是為了銷售盜版書,故而不宜放縱此等行為,認(rèn)定其構(gòu)成侵害復(fù)制權(quán)。而在網(wǎng)絡(luò)環(huán)境中,我們可以隨時(shí)隨地未經(jīng)許可將他人的攝影、美術(shù)、文字等作品下載到本地,并且通過復(fù)制、黏貼等手段拷貝成千上萬個(gè)復(fù)制件,這一行為看似實(shí)施了未經(jīng)許可的復(fù)制行為,但只要我們沒有進(jìn)一步實(shí)施通過信息網(wǎng)絡(luò)傳播該作品或者將該作品打印出來對外發(fā)行等,那么,從實(shí)質(zhì)上看就沒有損害版權(quán)人的利益。
同樣道理,人工智能公司在收集獲取海量版權(quán)作品時(shí)盡管可能實(shí)施了復(fù)制行為,但是,此舉并非進(jìn)一步實(shí)施其他侵權(quán)行為(比如通過信息網(wǎng)絡(luò)傳播作品、發(fā)行作品等)的過程行為,因此,并沒有損害版權(quán)人的利益,不宜機(jī)械地認(rèn)定構(gòu)成侵害復(fù)制權(quán)。
其二,版權(quán)法中沒有規(guī)定“閱讀權(quán)”,更沒有規(guī)定“機(jī)器學(xué)習(xí)權(quán)”或“語料投喂權(quán)”。眾所周知,購買并閱讀盜版書的行為,并不構(gòu)成版權(quán)侵權(quán),而人工智能學(xué)習(xí)、處理向其“投喂”的未經(jīng)權(quán)利人許可的版權(quán)數(shù)據(jù)的過程,與人類閱讀盜版書無異,自然也不應(yīng)認(rèn)定侵權(quán)。
其三,既然“個(gè)人學(xué)習(xí)、研究或者欣賞”構(gòu)成版權(quán)法中的合理使用,類比推理,大模型的“機(jī)器學(xué)習(xí)”似也可構(gòu)成合理使用。對這一點(diǎn),即使《著作權(quán)法》第二十四條第一款第(十三)項(xiàng)作為法律依據(jù)似乎并不那么充分,還有《著作權(quán)法實(shí)施條例》第二十一條以及與該條類似的《伯爾尼公約》第九條第二款可以適用。
人類的學(xué)習(xí)往往伴隨著直覺、情感和體會,而“機(jī)器學(xué)習(xí)”則是通過算法處理和分析大量數(shù)據(jù),從數(shù)據(jù)中提取模式、關(guān)聯(lián)性和規(guī)律,基于這些數(shù)據(jù)進(jìn)行決策、預(yù)測并輸出識別結(jié)果。如果把人工智能看作人類,那么,在她的眼里,無論再美、再偉大單個(gè)作品也不過是大量版權(quán)數(shù)據(jù)中的滄海一粟而已。所以說,人工智能接受版權(quán)數(shù)據(jù)的“投喂”,并不是像人類那樣在“使用”作品,既然如此,又何談未經(jīng)許可使用作品而構(gòu)成侵權(quán)呢?
其四,在版權(quán)數(shù)據(jù)海量、版權(quán)人海量的情況下,除非人工智能公司有意或無意地承認(rèn)其究竟“投喂”了哪些版權(quán)數(shù)據(jù)(比如,在美國的一起某圖庫公司訴某人工智能的版權(quán)案件中,人工智能生成的圖片中竟然打著圖庫公司的水印,可見其圖庫被用于“投喂”),否則,權(quán)利人幾乎不可能知道,而且即使知道也很難證明其作品被用于“投喂”的事實(shí),這也意味著,版權(quán)人很難獲得侵權(quán)救濟(jì)。正所謂,有權(quán)利必有救濟(jì),無救濟(jì)則無權(quán)利。即使賦予版權(quán)人“機(jī)器學(xué)習(xí)權(quán)”或“語料訓(xùn)練權(quán)”,但版權(quán)人根本無法得到救濟(jì)的話,也是空有其名罷了。
2、生成內(nèi)容
以ChatGPT為代表的生成式人工智能可以生成與版權(quán)作品外觀無異的圖片、音樂、視頻、軟件代碼等內(nèi)容。圍繞生成內(nèi)容的爭議主要有兩個(gè):
(1)生成內(nèi)容是否構(gòu)成版權(quán)作品?如果構(gòu)成作品,版權(quán)歸屬于人工智能公司,還是人工智能的使用者?
版權(quán)法保護(hù)人類的創(chuàng)作,不保護(hù)非人類的創(chuàng)作。如果是人工智能自主生成的內(nèi)容,則不構(gòu)成作品,這一點(diǎn)并無爭議。如果是人類利用人工智能,通過反復(fù)輸入、修改提示詞而生成的內(nèi)容,就有人提出“使用者享有版權(quán)”的觀點(diǎn)。筆者認(rèn)為,就使用者利用人工智能生成的內(nèi)容而言,無論是人工智能公司還是使用者都不享有版權(quán)。此處不再展開,感興趣的讀者可以閱讀《AI或成為版權(quán)法的終結(jié)者——兼評AI圖片版權(quán)侵權(quán)案》一文。
(2)如果生成內(nèi)容與他人在先作品相同或?qū)嵸|(zhì)性相似,人工智能公司是否構(gòu)成侵權(quán)?
這其實(shí)是前兩年的老問題了。當(dāng)前,國內(nèi)外流行的通用人工智能早已“越過山丘”,不太可能出現(xiàn)生成內(nèi)容與他人在先作品相同或?qū)嵸|(zhì)性相似的情況了。即使出現(xiàn)了這一情況,恐怕也只能是算法上極其偶然的巧合,而非人工智能公司有意為之的抄襲。畢竟,人工智能公司“志不在此”。如前文所述,在機(jī)器人眼里,任何單一作品在海量版權(quán)數(shù)據(jù)面前都顯得微不足道,算法決定了它不會盯著一只羊薅羊毛。
二、未來的人工智能如何影響知識產(chǎn)權(quán)制度?
很多人都認(rèn)為,如果人工智能繼續(xù)迭代下去,在未來,它不僅會取代更多人類的工作,改變國際格局和社會結(jié)構(gòu),而且還可能統(tǒng)治乃至摧毀人類。但由于人類很可能無法提供支撐人工智能統(tǒng)治、摧毀人類的算力,所以《三體》的作者劉慈欣說過,人類的無能或?qū)⑹堑钟斯ぶ悄艿淖詈笃琳稀?/strong>
將“在未來人工智能會不會終結(jié)知識產(chǎn)權(quán)制度?”這一問題拋給人工智能,多個(gè)大模型都有類似回答:既然知識產(chǎn)權(quán)制度在歷史上每次都能對科技進(jìn)步帶來的沖擊作出適應(yīng)性調(diào)整,那么,這一次也不會例外。筆者認(rèn)為,人工智能的這個(gè)回答太官方、太謙虛了,更像是刻意低調(diào)地隱藏實(shí)力。那么,隨著人工智能的發(fā)展,知識產(chǎn)權(quán)制度究竟會何去何從呢?
(一)商標(biāo)法面臨最小的沖擊
知識產(chǎn)權(quán)制度內(nèi)部其實(shí)并非鐵板一塊,三大知識產(chǎn)權(quán)法的機(jī)理存在不小差異。版權(quán)法、專利法保護(hù)的是智力成果,旨在鼓勵有益作品的創(chuàng)作傳播及發(fā)明的創(chuàng)造應(yīng)用,但商標(biāo)法保護(hù)的客體則并非智力成果(盡管很多商標(biāo)標(biāo)識很有創(chuàng)意),并非商標(biāo)標(biāo)識本身,而是保護(hù)商標(biāo)背后所蘊(yùn)含的商業(yè)信譽(yù)。由于商業(yè)信譽(yù)與企業(yè)獲取、掌握或壟斷的知識及智力成果沒有直接關(guān)系,因此,商標(biāo)法受到人工智能的沖擊相對較小,在很長時(shí)間內(nèi)還將繼續(xù)存在。
有人說,人工智能幫助人們快速設(shè)計(jì)商標(biāo)標(biāo)識(Logo),由此會導(dǎo)致商標(biāo)注冊申請量的大爆發(fā)。其實(shí),根本無須擔(dān)心這個(gè)問題。面對激增的申請數(shù)量,商標(biāo)管理機(jī)構(gòu)可以“用魔法打敗魔法”,利用人工智能對大規(guī)模商標(biāo)申請予以初級甚至終極審查。更何況,商標(biāo)申請量與整個(gè)社會商業(yè)主體的數(shù)量、存續(xù)和活躍程度密切相關(guān),與是不是可以免費(fèi)快捷地設(shè)計(jì)出Logo沒有強(qiáng)關(guān)聯(lián)。
(二)技術(shù)秘密或成權(quán)利人的“敝帚自珍”
技術(shù)秘密具有非排他性,不同主體可以各自秘而不宣地?fù)碛邢嗤募夹g(shù),而隨著市場主體通過人工智能獲取知識的能力的進(jìn)一步提升,這樣的情況將變得更為普遍。門檻較低的技術(shù)秘密,其他主體通過人工智能可以輕易直接獲取;門檻較高的技術(shù)秘密,其他主體通過人工智能來實(shí)施數(shù)據(jù)分析、模式識別等反向工程可事半功倍——技術(shù)秘密的非公知性岌岌可危。
而一旦穩(wěn)定的量子計(jì)算技術(shù)將來與人工智能結(jié)合起來,則會進(jìn)一步加速機(jī)器學(xué)習(xí)算法,突破數(shù)據(jù)加密,提高人工智能感知、認(rèn)知和決策能力,屆時(shí)再輔之以質(zhì)譜分析等其他“破解”技術(shù),無論是配方、工藝還是密碼、參數(shù)等技術(shù)秘密,面對量子人工智能上帝般的視角,終將都是浮云。屆時(shí),也許重要的早已不是技術(shù)秘密本身,而是對人工智能破解技術(shù)秘密的倫理或法律規(guī)制。
(三)版權(quán)法、專利法終將是人類法制史上的過客
如果說人類歷史上的農(nóng)業(yè)、工業(yè)與科技革命都著眼于技術(shù)的話,人工智能所引發(fā)的知識革命和思維革命則是著眼于人類自身。
知識曾是人類最偉大的資本,如今因人工智能而變得唾手可得。未來,人工智能還將向人類提供更逼真、更有創(chuàng)意、更滿足個(gè)性化需求的知識產(chǎn)品,從而根本性地影響人類的閱讀、學(xué)習(xí)方式,進(jìn)而影響“創(chuàng)作方式”與“創(chuàng)作激勵”。人工智能還將憑借難以置信的模擬、分析、深度學(xué)習(xí)、跨專業(yè)跨學(xué)科等能力,打破“時(shí)間”“空間”“成本”“精力”等人類從事科學(xué)研究的天然瓶頸,重塑“發(fā)明”與“創(chuàng)造”的內(nèi)涵。按這樣的發(fā)展趨勢,社會整體的知識產(chǎn)品將被分為三類:一是人類自身完成的智力成果,即“人類成果”,二是人類利用人工智能完成的成果,即“人機(jī)合作成果”,三是人工智能自主完成的成果,即“機(jī)器成果”。與后兩者相比,“人類成果”無論是在數(shù)量還是在價(jià)值方面,其比重?zé)o疑將會越來越小,版權(quán)法和專利法“旨在激勵人類創(chuàng)作與創(chuàng)造”的基礎(chǔ)邏輯將逐漸動搖,直到最后成為人類法制史上的過客。
當(dāng)然,在中短期之內(nèi),絲毫不影響企業(yè)繼續(xù)加大知識產(chǎn)權(quán)投入,特別是在神經(jīng)網(wǎng)絡(luò)、自然語言理解、AI芯片、深度學(xué)習(xí)算法及應(yīng)用、類腦智能、具身智能等方面還需要“做加法”,加強(qiáng)人工智能領(lǐng)域的技術(shù)攻堅(jiān)與專利布局。
對于某一作品或發(fā)明,究竟它是“人類成果”,還是“人機(jī)合作成果”,抑或是“機(jī)器成果”,會變得越來越難以分辨。如果法律不加區(qū)分地對三類成果都予以保護(hù),那么,可以想象,大多數(shù)核心技術(shù)都將可能被極少數(shù)人工智能公司所壟斷,從而進(jìn)一步加劇人類社會的不平等。這一擔(dān)心不無道理。因此,有必要根據(jù)人工智能發(fā)展及應(yīng)用情況,適時(shí)修訂、完善版權(quán)法和專利法,在法律制度層面“做減法”。比如:明確排除“機(jī)器成果”甚至是“人機(jī)合作成果”的可版權(quán)性和可專利性;與此同時(shí),在版權(quán)登記、專利審查、司法個(gè)案審查中逐步探索建立對“人類成果”“人機(jī)合作成果”“機(jī)器成果”等三類知識產(chǎn)品的分辨機(jī)制,以防止不當(dāng)?shù)財(cái)U(kuò)大保護(hù)。






