人工智能(AI)生成內(nèi)容的刑事合規(guī)邊界
作者:曾崢 吳衛(wèi)明 郭家豪 陳伊韜 2024-06-11人工智能生成內(nèi)容(Artificial Intelligence Generated Content,以下簡稱“AIGC”),是指利用生成式人工智能(Generative Artificial Intelligence,以下簡稱“GAI”)技術(shù)生成的內(nèi)容,也是繼專業(yè)生成內(nèi)容(Professional Generated Content, PGC)和用戶生成內(nèi)容(User Generated Content, UGC)之后,利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式。[1]
自ChatGPT問世以來,GAI強(qiáng)大的內(nèi)容生成能力也為用戶帶來了前所未有的便利與創(chuàng)意。但隨著GAI技術(shù)的廣泛應(yīng)用,AIGC的內(nèi)容合規(guī)問題也逐漸浮出水面。由于GAI技術(shù)應(yīng)用場景包含面向公眾的服務(wù)場景,部分GAI技術(shù)具有輿論動(dòng)員能力或社會(huì)動(dòng)員能力,因而其內(nèi)容是否符合法律的規(guī)定,是否符合公序良俗,是否有社會(huì)危害性,成為GAI治理的核心內(nèi)容之一。
對(duì)此,《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱“《暫行辦法》”)第四條[2]規(guī)定:生成式人工智能服務(wù)提供者和使用者均應(yīng)避免生成包含“煽動(dòng)顛覆國家政權(quán)、推翻社會(huì)主義制度,危害國家安全和利益、損害國家形象,煽動(dòng)分裂國家、破壞國家統(tǒng)一和社會(huì)穩(wěn)定,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容”(以下統(tǒng)稱“不良信息”)的AIGC。
包含上述不良內(nèi)容的AIGC因其對(duì)國家和公共法益的侵害,大部分已被納入《刑法》的規(guī)制范圍,比如,制作發(fā)布有關(guān)違法內(nèi)容的行為,可能涉嫌煽動(dòng)分裂國家罪,煽動(dòng)顛覆國家政權(quán)罪,宣揚(yáng)恐怖主義、極端主義、煽動(dòng)實(shí)施恐怖活動(dòng)罪,煽動(dòng)民族仇恨、民族歧視罪,傳播淫穢物品罪等(以下統(tǒng)稱“內(nèi)容型犯罪”)。同時(shí),AIGC和GAI以互聯(lián)網(wǎng)為基礎(chǔ),還可能涉及《刑法修正案(九)》新增的有關(guān)互聯(lián)網(wǎng)犯罪的內(nèi)容,包括拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪,非法利用信息網(wǎng)絡(luò)罪,幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪等。
本文將深入探討AIGC可能涉及的刑事風(fēng)險(xiǎn),AIGC產(chǎn)業(yè)鏈上不同角色在不同情形下應(yīng)承擔(dān)何種責(zé)任,以期為相關(guān)從業(yè)者提供參考和借鑒。
一、 AIGC的生成原理
AIGC的生成以GAI為基礎(chǔ),以GAI的訓(xùn)練為起點(diǎn),AIGC的生成原理概述如下:
(一) 數(shù)據(jù)收集與預(yù)處理
GAI需要大量的訓(xùn)練數(shù)據(jù)。訓(xùn)練數(shù)據(jù)通常來自互聯(lián)網(wǎng),包括書籍、文章、對(duì)話等。但為保證訓(xùn)練質(zhì)量,原始數(shù)據(jù)通常會(huì)經(jīng)過清洗、分詞、去除停用詞等預(yù)處理操作,以確保模型能夠有效學(xué)習(xí)。
(二) 模型構(gòu)建與訓(xùn)練
GAI常用的模型架構(gòu)包括循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、變換器(Transformer)和生成式對(duì)抗網(wǎng)絡(luò)(GAN)等。這些模型能夠?qū)W習(xí)并捕捉數(shù)據(jù)中的上下文信息、結(jié)構(gòu)特征和概率分布。為了提高模型的性能,這些模型通過大量的數(shù)據(jù)進(jìn)行訓(xùn)練,不斷改進(jìn)其預(yù)測和生成結(jié)果的能力。
(三) 內(nèi)容生成與輸出
當(dāng)GAI完成訓(xùn)練后,它可以接收用戶或系統(tǒng)的輸入。這些輸入可以是文本、圖像、音頻等形式的數(shù)據(jù),根據(jù)輸入的上下文信息和學(xué)習(xí)到的概率分布,GAI會(huì)生成新的內(nèi)容,此即為通常所說的AIGC。AIGC的形式同樣可以是文本、圖像、音頻等形式。
二、 AIGC包含不良內(nèi)容的原因分析
基于AIGC的生成原理,如AIGC包含了不良信息,其原因可能包括:
(一) 訓(xùn)練數(shù)據(jù)存在問題
一方面,如果訓(xùn)練數(shù)據(jù)集包含了不良信息,模型就可能學(xué)習(xí)并生成類似的內(nèi)容;另一方面,如果訓(xùn)練數(shù)據(jù)中的標(biāo)簽未正確標(biāo)識(shí)不良內(nèi)容,模型就無法區(qū)分不良信息和正常信息,進(jìn)而導(dǎo)致模型的生成內(nèi)容包含不良信息。
(二) 模型架構(gòu)存在問題
部分GAI模型在設(shè)計(jì)時(shí),沒有充分考慮對(duì)不良內(nèi)容的檢測和過濾,模型僅根據(jù)數(shù)據(jù)分布生成內(nèi)容,而不具備對(duì)內(nèi)容的道德或倫理判斷能力,此時(shí)也可能導(dǎo)致模型的生成內(nèi)容包含不良信息。
(三) 輸入內(nèi)容存在問題
對(duì)于交互式GAI(例如聊天機(jī)器人),使用者輸入的內(nèi)容本身可能包含不良信息,GAI在生成回復(fù)內(nèi)容時(shí)可能會(huì)繼續(xù)該上下文,生成不良信息。此外,GAI如對(duì)用戶輸入的上下文理解不足,使用者可能通過輸入隱晦或暗示性的語言,使得GAI無法有效過濾或拒絕生成不良信息。
(四) 缺乏適當(dāng)?shù)倪^濾和監(jiān)控機(jī)制
最后,GAI如果對(duì)生成內(nèi)容沒有經(jīng)過適當(dāng)?shù)暮筇幚聿襟E(例如內(nèi)容過濾、關(guān)鍵詞屏蔽、不良信息檢測等),可能會(huì)直接輸出包含不良信息的內(nèi)容。此外,在實(shí)時(shí)生成內(nèi)容的應(yīng)用(如對(duì)話系統(tǒng))中,缺乏實(shí)時(shí)的監(jiān)控機(jī)制也可能導(dǎo)致不良信息未被及時(shí)發(fā)現(xiàn)和處理。
三、 AIGC包含不良內(nèi)容的刑事風(fēng)險(xiǎn)分析
(一) AIGC產(chǎn)業(yè)鏈上涉及的法律責(zé)任主體類型
參考《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱“《深度合成規(guī)定》”)中,將深度合成產(chǎn)業(yè)鏈上的參與角色劃分為深度合成服務(wù)提供者、深度合成服務(wù)技術(shù)支持者、深度合成服務(wù)使用者,結(jié)合前述對(duì)AIGC生成原理的介紹,AIGC產(chǎn)業(yè)鏈上涉及的法律責(zé)任主體類型亦可劃分為:
生成式人工智能服務(wù)提供者(以下簡稱“服務(wù)提供者”),是指提供生成式人工智能服務(wù)的組織、個(gè)人。
生成式人工智能服務(wù)技術(shù)支持者(以下簡稱“技術(shù)支持者”),是指為生成式人工智能服務(wù)提供技術(shù)支持的組織、個(gè)人。
生成式人工智能服務(wù)使用者(以下簡稱“服務(wù)使用者”),是指使用生成式人工智能服務(wù)制作、復(fù)制、發(fā)布、傳播信息的組織、個(gè)人。
在實(shí)務(wù)中,亦存在服務(wù)提供者以其自有模型和技術(shù)提供生成式人工智能服務(wù)。此時(shí),服務(wù)提供者將同時(shí)是技術(shù)支持者,后文分析中有關(guān)技術(shù)支持者的部分也將適用于服務(wù)提供者,不再贅述。
值得注意的是,雖然《暫行辦法》僅劃分了生成式人工智能服務(wù)提供者和生成式人工智能服務(wù)使用者兩類角色,但這不代表《暫行辦法》未對(duì)技術(shù)支持者提出合規(guī)要求。例如《暫行辦法》第七條[3]對(duì)GAI的訓(xùn)練數(shù)據(jù)處理活動(dòng)進(jìn)行了規(guī)定、第八條[4]對(duì)GAI研發(fā)過程中的數(shù)據(jù)標(biāo)注進(jìn)行了規(guī)定,實(shí)務(wù)中如相關(guān)活動(dòng)是由技術(shù)支持者完成,則仍應(yīng)遵守對(duì)應(yīng)的規(guī)定。
(二) 不同原因下各主體的責(zé)任承擔(dān)分析
除非服務(wù)提供者、技術(shù)支持者與服務(wù)使用者存在事前的共謀,以實(shí)施犯罪行為的故意創(chuàng)設(shè)、使用GAI,則可以按照共同犯罪追究其作為犯罪整體的刑事責(zé)任。一般情況下,服務(wù)使用者往往是不特定的用戶群體,沒有成為責(zé)任主體的條件。舉例而言,搭建、租售VPN易觸犯提供侵入、非法控制計(jì)算機(jī)信息系統(tǒng)程序、工具罪或非法經(jīng)營罪。雖然目前對(duì)使用VPN的行為并未適用刑法評(píng)價(jià)(仍然是違法行為),但是如果使用者以GAI或其輸出的AIGC作為工具從事其他犯罪活動(dòng),如使用AI換臉軟件生成淫穢圖片在網(wǎng)上販賣、傳播,則具有了獨(dú)立的刑事可罰性。因此,下文主要討論的是,AIGC產(chǎn)業(yè)鏈上的服務(wù)提供者、技術(shù)支持者們,在AIGC出現(xiàn)帶有刑事風(fēng)險(xiǎn)內(nèi)容時(shí),根據(jù)不同情況應(yīng)當(dāng)如何歸責(zé)的問題。
1. 訓(xùn)練數(shù)據(jù)或模型架構(gòu)存在問題
如不良信息的生成是由于訓(xùn)練數(shù)據(jù)或模型架構(gòu)存在問題,則技術(shù)支持者可能被追究刑事責(zé)任。但考慮我國刑法體系下,定罪以主客觀相統(tǒng)一為基礎(chǔ)原則,因此技術(shù)支持者是否應(yīng)承擔(dān)刑事責(zé)任,還應(yīng)考察其是否具備生成或傳播不良信息之主觀故意。
AIGC的技術(shù)復(fù)雜性使得技術(shù)支持者主觀上故意與否通常難以直接認(rèn)定。同時(shí),我國現(xiàn)行法律法規(guī)及監(jiān)管規(guī)則、技術(shù)標(biāo)準(zhǔn)已就訓(xùn)練數(shù)據(jù)和模型訓(xùn)練提出了若干要求,實(shí)務(wù)中或可考慮通過判斷技術(shù)支持者是否履行相關(guān)法律義務(wù)、是否實(shí)施了相關(guān)技術(shù)標(biāo)準(zhǔn)來推斷其是否具有主觀故意。具體而言:
①使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型
《暫行辦法》第七條明確要求 “使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型”。
何謂“具有合法來源的數(shù)據(jù)”?通常理解上,應(yīng)當(dāng)系指通過合法途徑,例如協(xié)議獲取、合法公開收集等方式,而非竊取、未經(jīng)許可收集等非法方式獲取數(shù)據(jù)。
何謂“具有合法來源的基礎(chǔ)模型”?目前《暫行辦法》第十七條[5]對(duì)具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù)已提出了明確的備案要求。此外,根據(jù)我們向國家網(wǎng)信辦咨詢得到的窗口意見,目前監(jiān)管部門對(duì)“具有輿論屬性或者社會(huì)動(dòng)員能力”的認(rèn)定標(biāo)準(zhǔn)較為寬泛,如服務(wù)使用者包含一般公眾,則應(yīng)當(dāng)履行備案義務(wù)。因此,是否根據(jù)《暫行辦法》完成備案工作,可作為判斷相關(guān)基礎(chǔ)模型是否合法的參考標(biāo)準(zhǔn)之一。當(dāng)然行政監(jiān)管的違法性,與刑事的違法性并非等同的概念,但是,完成備案的基礎(chǔ)模型,備案中需要對(duì)模型的安全性進(jìn)行評(píng)估,采用此類模型,可以大大降低服務(wù)使用者生成不良信息的風(fēng)險(xiǎn)。
②確保數(shù)據(jù)標(biāo)注質(zhì)量
根據(jù)《暫行辦法》第八條,在生成式人工智能技術(shù)研發(fā)過程中進(jìn)行數(shù)據(jù)標(biāo)注的,服務(wù)提供者或技術(shù)支持者應(yīng)當(dāng)制定符合本辦法要求的清晰、具體、可操作的標(biāo)注規(guī)則,并在標(biāo)注規(guī)則中,體現(xiàn)出對(duì)于違法內(nèi)容予以識(shí)別的內(nèi)容;服務(wù)提供者或技術(shù)支持者還應(yīng)開展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性;對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),提升尊法守法意識(shí),監(jiān)督指導(dǎo)標(biāo)注人員規(guī)范開展標(biāo)注工作。從而降低被認(rèn)定為具有主觀故意的可能性。
③語料安全與模型安全要求
除《暫行辦法》,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)于2024年3月1日發(fā)布了《生成式人工智能服務(wù)安全基本要求》,其中對(duì)語料來源安全、語料內(nèi)容安全、語料標(biāo)注安全、模型安全、安全措施等均提出了要求。
2.缺乏適當(dāng)?shù)倪^濾和監(jiān)控機(jī)制
無論是因訓(xùn)練數(shù)據(jù)、模型架構(gòu)存在問題,還是因輸入內(nèi)容存在問題,致使GAI生成的內(nèi)容包含了不良信息,服務(wù)提供者均有義務(wù)設(shè)置適當(dāng)?shù)倪^濾和監(jiān)控機(jī)制以避免不良信息向服務(wù)使用者輸出。
當(dāng)然,《暫行辦法》同時(shí)提出,堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,對(duì)AIGC實(shí)施包容審慎和分類分級(jí)監(jiān)管。服務(wù)提供者應(yīng)當(dāng)以正確的價(jià)值觀引導(dǎo)算法的設(shè)置,并以一般理性人的標(biāo)準(zhǔn)在算法適用過程中合理排除包含不良信息的內(nèi)容,避免造成絕對(duì)的侵害結(jié)果。一方面,對(duì)于明顯由算法設(shè)計(jì)或訓(xùn)練中人工引導(dǎo)而產(chǎn)生的不法/犯罪問題(例如算法篩選、過濾機(jī)制明顯與公序良俗相違背),應(yīng)當(dāng)針對(duì)服務(wù)提供者適用嚴(yán)格責(zé)任標(biāo)準(zhǔn);另一方面,若服務(wù)提供者、技術(shù)支持者已設(shè)置了適當(dāng)?shù)倪^濾和監(jiān)控機(jī)制,如果服務(wù)使用者在具體操作時(shí)生成了服務(wù)提供者、技術(shù)支持者無法預(yù)見的不良信息,此時(shí)也不宜過分苛責(zé)服務(wù)提供者或技術(shù)支持者。[6]
3.輸入內(nèi)容存在問題
如AIGC中不良信息的出現(xiàn),確由服務(wù)使用者通過其輸入刻意引導(dǎo)(如隱晦或暗示性的語言)而誘使生成,該等情形下,由于服務(wù)使用者具有相關(guān)內(nèi)容型犯罪之主觀故意,可根據(jù)其具體行為確定涉嫌何種內(nèi)容型犯罪。
而此種情形下,服務(wù)提供者或技術(shù)支持者的刑事責(zé)任承擔(dān),還需依據(jù)服務(wù)提供者或技術(shù)支持者對(duì)服務(wù)使用者違法/犯罪行為的態(tài)度,如追求還是放任,做不同區(qū)分。刑事犯罪中對(duì)主觀故意的認(rèn)定有兩種方式,一是積極的故意,即行為人希望危害結(jié)果或危險(xiǎn)能夠發(fā)生,二是放任的故意,即行為人認(rèn)識(shí)到其作為/不作為會(huì)招致危害結(jié)果或危險(xiǎn)的發(fā)生,但不采取措施避免。
如案件證據(jù)足以證明服務(wù)提供者或技術(shù)支持者具有積極的故意,則毫無疑問應(yīng)當(dāng)承擔(dān)相應(yīng)的刑事責(zé)任。但實(shí)務(wù)中的難點(diǎn)或復(fù)雜點(diǎn)通常在于服務(wù)提供者或技術(shù)支持者是否具有放任的故意、如何證明其具有或不具有放任的故意。事實(shí)上,由于客觀上AIGC輸入數(shù)據(jù)的龐大性,算法的復(fù)雜性,以及算法的多重迭代會(huì)產(chǎn)生黑箱效應(yīng),即便服務(wù)提供者或技術(shù)支持者在訓(xùn)練過程中力求合法合規(guī),也難以避免在具體使用場景中產(chǎn)生違法或犯罪問題。此時(shí)作為服務(wù)提供者或技術(shù)支持者,在實(shí)踐中一般可以遵循如下原則,對(duì)于其所運(yùn)營的AIGC產(chǎn)品上的服務(wù)使用者不法行為履行審查和監(jiān)管義務(wù),并以此作為自身對(duì)服務(wù)使用者違法/犯罪行為不具有放任的故意的證明:
① 避風(fēng)港原則
避風(fēng)港原則作為一項(xiàng)在著作權(quán)領(lǐng)域廣泛應(yīng)用的法律原則,是指在發(fā)生著作權(quán)侵權(quán)案件時(shí),當(dāng)網(wǎng)絡(luò)服務(wù)提供者僅提供空間服務(wù)而未制作頁面內(nèi)容情況下,如果知曉侵權(quán)內(nèi)容,則網(wǎng)絡(luò)服務(wù)提供者有義務(wù)刪除侵權(quán)內(nèi)容,或者采取屏蔽、斷開鏈接等措施。如果在明確知曉侵權(quán)事實(shí)后,仍不及時(shí)采取相關(guān)措施,則需要承擔(dān)責(zé)任。避風(fēng)港原則雖然是著作權(quán)領(lǐng)域的一項(xiàng)原則,但在判斷技術(shù)支持者/服務(wù)提供者是否存在故意方面,仍有一定的參考意義。
② 紅旗原則
紅旗原則同樣是著作權(quán)領(lǐng)域的一個(gè)原則,當(dāng)侵權(quán)事實(shí)顯而易見,像“紅旗一樣飄揚(yáng)”時(shí),服務(wù)提供者不能假裝看不見,或者以不知道侵權(quán)為由推脫責(zé)任。即在按常理和應(yīng)盡的基本審慎義務(wù)的情況下,服務(wù)提供者應(yīng)當(dāng)知道侵權(quán)行為的存在卻不刪除鏈接,即使權(quán)利人沒有發(fā)出刪除通知,服務(wù)提供者也應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。
(三)技術(shù)中立原則的影響
1、技術(shù)中立的影響
在涉及互聯(lián)網(wǎng)犯罪的案件中,當(dāng)“技術(shù)中立”成為主要辯護(hù)點(diǎn)時(shí),服務(wù)提供者或技術(shù)支持者通常會(huì)強(qiáng)調(diào)其產(chǎn)品設(shè)計(jì)、運(yùn)營和宣傳的合法合規(guī)性,并展示在監(jiān)管和審查方面已盡到的義務(wù)。他們往往主張主觀上對(duì)違法行為的不知情,或者在得知后已盡力對(duì)使用者的不法行為進(jìn)行糾正,同時(shí)強(qiáng)調(diào)在客觀上由于技術(shù)限制等因素,完全杜絕此類行為并不具備可行性。
事實(shí)上,技術(shù)中立在刑法上并無特別意義,也并非出罪理由。技術(shù)本身不應(yīng)該成為刑法評(píng)價(jià)的對(duì)象,可能構(gòu)成犯罪的是技術(shù)提供行為。而認(rèn)定技術(shù)提供行為是否成立犯罪,只能基于刑法的正犯化特別立法和傳統(tǒng)的共犯理論,并回歸到主觀認(rèn)識(shí)與犯意聯(lián)絡(luò)當(dāng)中去。典型如快播案件[7]中,辯護(hù)方強(qiáng)調(diào)“快播公司提供的是技術(shù)服務(wù),沒有傳播、發(fā)布、搜索淫穢視頻行為,也不存在幫助行為;快播技術(shù)不是專門發(fā)布淫穢視頻的工具,而是提供緩存服務(wù)以提高網(wǎng)絡(luò)傳輸效率,為用戶提供P2P視頻點(diǎn)播技術(shù)服務(wù);基于技術(shù)中立原則,對(duì)快播公司的行為應(yīng)適用避風(fēng)港原則,快播公司不應(yīng)為網(wǎng)絡(luò)用戶傳播淫穢物品承擔(dān)刑事責(zé)任。”而檢方通過舉證快播公司調(diào)度服務(wù)器不僅拉拽淫穢視頻存儲(chǔ)在緩存服務(wù)器里,也向客戶端提供緩存服務(wù)器中的淫穢視頻文件。從而證明快播公司實(shí)質(zhì)介入了淫穢視頻的傳播行為,摧毀了其技術(shù)中立的基礎(chǔ)。
快播案最終定性為傳播淫穢物品牟利罪。事實(shí)上,在快播風(fēng)頭最盛之時(shí),幾乎就可以以淫穢視頻啟動(dòng)器劃等號(hào),不法亂象早已明眼可見,應(yīng)當(dāng)適用“紅旗原則”對(duì)其進(jìn)行歸責(zé)。當(dāng)然,對(duì)于判罰合理性,學(xué)界也存在觀點(diǎn)認(rèn)為,若本案發(fā)生在《刑法修正案(九)》發(fā)布之后,則定性拒不履行信息安全管理義務(wù)罪更為合適。[8]
2、共同犯罪或是獨(dú)立犯罪的考量
從立法趨勢上來看,《刑法修正案(九)》后增設(shè)的幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪,拒不履行信息安全管理義務(wù)罪以及非法利用信息網(wǎng)絡(luò)罪,均反映了我國關(guān)于網(wǎng)絡(luò)犯罪及涉及AI犯罪的積極主義刑罰觀,通過將傳統(tǒng)共犯理論中的幫助犯獨(dú)立正犯化以應(yīng)對(duì)越來越活躍的互聯(lián)網(wǎng)犯罪及涉及AI犯罪問題,也為服務(wù)提供者、技術(shù)支持者提出了更高的合規(guī)要求。即便與使用者之間不存在就特定犯罪的犯意聯(lián)絡(luò),也可以通過主觀上的推定明知,就網(wǎng)絡(luò)產(chǎn)品及AI產(chǎn)品對(duì)實(shí)行犯犯罪行為的促進(jìn)作用對(duì)服務(wù)提供者、技術(shù)支持者入罪。
具體而言,就AIGC方面,《暫行辦法》第九條[9]要求服務(wù)提供者承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,第十四條則明確要求“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時(shí)采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報(bào)告。提供者發(fā)現(xiàn)使用者利用生成式人工智能服務(wù)從事違法活動(dòng)的,應(yīng)當(dāng)依法依約采取警示、限制功能、暫停或者終止向其提供服務(wù)等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報(bào)告。”
《深度合成規(guī)定》第十條亦規(guī)定:“深度合成服務(wù)提供者應(yīng)當(dāng)加強(qiáng)深度合成內(nèi)容管理,采取技術(shù)或者人工方式對(duì)深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核。深度合成服務(wù)提供者應(yīng)當(dāng)建立健全用于識(shí)別違法和不良信息的特征庫,完善入庫標(biāo)準(zhǔn)、規(guī)則和程序,記錄并留存相關(guān)網(wǎng)絡(luò)日志。深度合成服務(wù)提供者發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)依法采取處置措施,保存有關(guān)記錄,及時(shí)向網(wǎng)信部門和有關(guān)主管部門報(bào)告;對(duì)相關(guān)深度合成服務(wù)使用者依法依約采取警示、限制功能、暫停服務(wù)、關(guān)閉賬號(hào)等處置措施。”
由此可見,我國監(jiān)管部門目前對(duì)AIGC服務(wù)提供者提出了較高的注意義務(wù),如服務(wù)提供者未履行上述注意義務(wù),服務(wù)使用者利用GAI生成違法違規(guī)內(nèi)容,會(huì)受到監(jiān)管部門責(zé)令改正。
近日,九龍坡區(qū)網(wǎng)信辦依法對(duì)屬地“開山猴”AI寫作網(wǎng)站運(yùn)營主體重慶初唱科技有限公司未盡到審核管理義務(wù)、履行主體責(zé)任不到位的行為作出行政處罰。該企業(yè)運(yùn)營的“開山猴AI寫作大師”網(wǎng)站違規(guī)生成法律法規(guī)禁止的信息,未盡到主體責(zé)任義務(wù),違反了《中華人民共和國網(wǎng)絡(luò)安全法》《生成式人工智能服務(wù)管理暫行辦法》等相關(guān)法律法規(guī)。九龍坡區(qū)網(wǎng)信辦責(zé)令該公司限期全面整改,加強(qiáng)信息內(nèi)容審核,健全信息內(nèi)容安全管理相關(guān)制度,暫停網(wǎng)站信息更新及AI算法生成式寫作功能15日。[10]
四、結(jié)語
從一般的社會(huì)認(rèn)知和社會(huì)常理出發(fā),使用者通過AI換臉[11]、AI脫衣軟件[12]制作淫穢物品傳播牟利的行為已經(jīng)受到刑事追責(zé),而AI語聊夾帶色情內(nèi)容或生成淫穢圖片等問題也開始受到社會(huì)關(guān)注,這些行為的社會(huì)危害性是顯而易見的,但是,在法律法規(guī)不完善的背景下,合理設(shè)置產(chǎn)品提供者的刑事責(zé)任至關(guān)重要。如責(zé)任主體范圍過大或責(zé)任過重,則可能不利AI產(chǎn)業(yè)的創(chuàng)新發(fā)展;若責(zé)任主體范圍過小或責(zé)任過輕,則又可能使AIGC類產(chǎn)品成為違法犯罪的工具。
此外,對(duì)于服務(wù)提供者、技術(shù)支持者與服務(wù)使用者而言,在法律規(guī)則逐步完善的外部環(huán)境下,也應(yīng)敬畏法律,尊重社會(huì)公共利益,從源頭上樹立合規(guī)意識(shí),防范產(chǎn)品合規(guī)措施缺失而帶來的風(fēng)險(xiǎn)。
注釋:
[1] 中國信息通信研究院《人工智能生成內(nèi)容(AIGC)白皮書(2022年)》
[2] 《生成式人工智能服務(wù)管理暫行辦法》第四條 提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會(huì)公德和倫理道德,遵守以下規(guī)定:
(一)堅(jiān)持社會(huì)主義核心價(jià)值觀,不得生成煽動(dòng)顛覆國家政權(quán)、推翻社會(huì)主義制度,危害國家安全和利益、損害國家形象,煽動(dòng)分裂國家、破壞國家統(tǒng)一和社會(huì)穩(wěn)定,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容;(二)在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視;
(三)尊重知識(shí)產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺(tái)等優(yōu)勢,實(shí)施壟斷和不正當(dāng)競爭行為;
(四)尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個(gè)人信息權(quán)益;
(五)基于服務(wù)類型特點(diǎn),采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性。
[3] 《生成式人工智能服務(wù)管理暫行辦法》第七條 生成式人工智能服務(wù)提供者(以下稱提供者)應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),遵守以下規(guī)定:
(一)使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型;
(二)涉及知識(shí)產(chǎn)權(quán)的,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán);
(三)涉及個(gè)人信息的,應(yīng)當(dāng)取得個(gè)人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;
(四)采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性;
(五)《中華人民共和國網(wǎng)絡(luò)安全法》、《中華人民共和國數(shù)據(jù)安全法》、《中華人民共和國個(gè)人信息保護(hù)法》等法律、行政法規(guī)的其他有關(guān)規(guī)定和有關(guān)主管部門的相關(guān)監(jiān)管要求。
[4] 《生成式人工智能服務(wù)管理暫行辦法》第八條 在生成式人工智能技術(shù)研發(fā)過程中進(jìn)行數(shù)據(jù)標(biāo)注的,提供者應(yīng)當(dāng)制定符合本辦法要求的清晰、具體、可操作的標(biāo)注規(guī)則;開展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性;對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),提升尊法守法意識(shí),監(jiān)督指導(dǎo)標(biāo)注人員規(guī)范開展標(biāo)注工作。
[5] 《生成式人工智能服務(wù)管理暫行辦法》第十七條 提供具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù)的,應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評(píng)估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。
[6]上海市法學(xué)會(huì) 東方法學(xué),論大型內(nèi)容生成式人工智能模型設(shè)計(jì)者及提供者的侵權(quán)責(zé)任,https://mp.weixin.qq.com/s/bvR8JPjuQpohyJoO3kaQgg,訪問時(shí)間:2024年6月7日.
[7] 【刑事審判參考】第1192號(hào)快播案——網(wǎng)絡(luò)視頻緩存加速服務(wù)提供者構(gòu)成傳播淫穢物品牟利罪的認(rèn)定
[8] 陳興良,快播案一審判決的刑法教義學(xué)評(píng)判,《中外法學(xué)》2017年第1期
[9] 《生成式人工智能服務(wù)管理暫行辦法》第九條 提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。涉及個(gè)人信息的,依法承擔(dān)個(gè)人信息處理者責(zé)任,履行個(gè)人信息保護(hù)義務(wù)。提供者應(yīng)當(dāng)與注冊(cè)其服務(wù)的生成式人工智能服務(wù)使用者(以下稱使用者)簽訂服務(wù)協(xié)議,明確雙方權(quán)利義務(wù)。
[10] 網(wǎng)信重慶,首例!重慶網(wǎng)信部門對(duì)某生成式AI系統(tǒng)未盡到內(nèi)容審核義務(wù)作出處罰,https://mp.weixin.qq.com/s/uvTosgFGkRgA4OojmoNk0A,訪問時(shí)間,2024年6月7日.
[11] (2023)豫0203刑初11號(hào)
[12] 騰訊網(wǎng),“AI去衣”是否涉及刑責(zé)?北京海淀法院一審開庭審理使用“AI去衣”軟件制作淫穢物品案,https://new.qq.com/rain/a/20240419A09I9I00,訪問時(shí)間:2024年6月4日.






