人工智能生成內容的刑事合規邊界
作者:曾崢 吳衛明 2024-08-14人工智能生成內容(AIGC)是利用生成式人工智能(GAI)技術自動生成內容的新型生產方式。隨著GAI技術的廣泛應用,AIGC的內容合規問題愈發受到關注。本文將從法律責任主體類型、不同情形下的責任承擔等方面對AIGC可能涉及的刑事風險進行分析。
不良內容原因
AIGC的生成原理基于GAI的訓練,包括數據收集與預處理、模型構建與訓練、內容生成與輸出。AIGC包含不良信息的原因包括以下四類。
1.訓練數據問題:訓練數據包含不良信息或標簽錯誤,模型可能學習并生成類似內容;
2.模型架構問題:設計時未考慮對不良內容的檢測和過濾,生成內容可能包含不良信息;
3.輸入內容問題:用戶輸入包含不良信息,GAI在生成回復時可能繼續使用該上下文;及
4.缺乏過濾和監控機制:未采取內容過濾等后處理步驟,可能導致不良信息直接輸出。
法律責任主體
AIGC產業鏈上涉及的法律責任主體類型包括:
1.GAI服務提供者,即提供GAI服務的組織或個人;
2.技術支持者,即為GAI服務提供技術支持的組織或個人;及
3.服務使用者,即使用GAI服務制作、復制、發布、傳播信息的組織或個人。
一般情況下,服務使用者并非特定的用戶群體,沒有成為責任主體的條件。
責任承擔
刑事風險分析主要針對服務提供者和技術支持者,他們在AIGC出現不良內容時須分別承擔責任。
訓練數據或模型架構問題。技術支持者可能因使用非法數據或基礎模型、數據標注質量問題、未遵守語料和模型安全要求而被追究刑事責任;缺乏過濾和監控機制。服務提供者有義務設置過濾和監控機制,避免不良信息輸出。未履行此義務可能導致刑事責任。
輸入內容問題。服務使用者通過輸入引導生成不良信息,此時服務提供者或技術支持者的責任取決于他們對使用者行為的態度和監管措施。基于中國共犯理論與《刑法修正案(九)》新增的幫助信息網絡犯罪活動罪、拒不履行信息安全管理義務罪以及非法利用信息網絡罪,傳統意義上的幫助犯已獨立正犯化。服務提供者或技術支持者單獨依靠技術中立原則出罪較為困難,核心問題仍然在于對犯罪活動的主觀認識與犯意聯絡上。這對服務提供者、技術支持者提出了更高的合規要求。即便服務提供者或技術支持者與使用者之間不存在就特定犯罪的犯意聯絡,也可以通過主觀上的推定明知,就網絡產品及AI產品對實行犯犯罪行為的促進作用對服務提供者、技術支持者入罪。
《生成式人工智能服務管理暫行辦法》第九條要求服務提供者承擔網絡信息內容生產者責任。第十四條則明確要求:“提供者發現違法內容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關主管部門報告。提供者發現使用者利用生成式人工智能服務從事違法活動的,應當依法依約采取警示、限制功能、暫停或者終止向其提供服務等處置措施,保存有關記錄,并向有關主管部門報告。”
《互聯網信息服務深度合成管理規定》第十條亦規定:“深度合成服務提供者應當加強深度合成內容管理,采取技術或者人工方式對深度合成服務使用者的輸入數據和合成結果進行審核。深度合成服務提供者應當建立健全用于識別違法和不良信息的特征庫,完善入庫標準、規則和程序,記錄并留存相關網絡日志。深度合成服務提供者發現違法和不良信息的,應當依法采取處置措施,保存有關記錄,及時向網信部門和有關主管部門報告;對相關深度合成服務使用者依法依約采取警示、限制功能、暫停服務、關閉賬號等處置措施。”
由此可見,中國監管部門目前對AIGC服務提供者提出了較高的注意義務。如服務提供者未履行上述注意義務,導致服務使用者利用GAI生成違法違規內容,將受到監管部門責令改正。
結語
AIGC技術的快速發展帶來了創新與便利,同時也帶來了合規挑戰。合理設置產品提供者的刑事責任對于平衡創新發展與法律風險至關重要。服務提供者、技術支持者和服務使用者應在法律規則逐步完善的環境下,樹立合規意識,防范風險






