《生成式人工智能服務管理辦法(征求意見稿)》十問十答
作者:張丹 夏星悅 2023-05-04隨著GPT4.0的問世,由美國人工智能研究公司OpenAI開發的聊天機器人ChatGPT又引發了新一輪的熱潮,使AIGC產業再次成為大眾的視野焦點。“人工智能”迅速登頂各類報道,爆發程度使今年成為名副其實的“人工智能元年”。AIGC是指人工智能生成內容,也即利用ChatGPT這樣的生成式人工智能工具,根據用戶輸入的關鍵詞或要求來生成新的內容。這樣的生成式人工智能技術毫無疑問為我們的工作、學習等場景帶來了極大的便利,但隨之而來的個人信息保護、虛假信息、侵權等風險也不容小覷。
百度、360、阿里巴巴等一眾國內企業也相繼發布類似人工智能產品,為促進生成式人工智能技術健康發展和規范應用,4月11日,國家互聯網信息辦公室發布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》)向社會公開征求意見,擬進一步促進生成式人工智能技術健康發展和規范應用,對類似ChatGPT、文心一言等生成式人工智能服務提出合規要求。本文通過十個問答的形式,對《辦法》進行解讀,為讀者更好理解《辦法》中的條款提供參考。
問題一:什么是“生成式人工智能”?境外生成式人工智能產品是否適用《辦法》?
第二條 研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,適用本辦法。本辦法所稱生成式人工智能,是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。
從上述規定看,《辦法》對“生成式人工智能”的定義與《互聯網信息服務深度合成管理規定》(“《深度合成規定》”)中對“深度合成技術”的定義相接近。兩者的區分在于,不同于《辦法》采用概括方式介紹生成式人工智能生成內容與場景,《深度合成規定》中以“概括+列舉”的方式列明“深度合成技術”通常被運用在文本生成或編輯、語音生成或編輯、音樂生成或編輯、生物特征生成或編輯、數字人物及虛擬場景的生成場景等,其所指向的對象更加明確。也有學者認為,《深度合成規定》所指的“深度合成技術”包含了《辦法》所指的“生成式人工智能”。
而關于《辦法》是否具有域外效力的問題,《辦法》第二條規定了“研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,適用本辦法。”參照《辦法》上位法之一的《個人信息保護法》第三條第二款之規定,可以推定境外生成式人工智能產品,如以向中國境內公眾提供服務為目的的,應適用《辦法》。對于如何理解“面向中國境內公眾提供服務”,則可參考以下要素進行判斷:是否使用中文;是否以人民幣作為結算貨幣;是否可用中國大陸手機號碼進行賬號注冊及登錄;是否可以允許IP地址在中國大陸的賬號進行訪問和操作等等。
問題二:何為“安全可信的軟件、工具、計算和數據資源”?
第三條 國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源。
《辦法》第三條規定,“鼓勵優先采用安全可信的軟件、工具、計算和數據資源”,這是貫徹《網絡安全法》《數據安全法》等上位法的相關規定,以保障生成式人工智能產品在研發及利用的過程中防范國家安全、網絡安全、數據安全和個人信息安全等方面的風險。企業在進行該類供應商選擇時,可結合供應商及其所提供的產品的相關資質證書、供應商過往違法違規情況、過往的業務經歷等綜合判斷其所提供的產品和服務的質量與能力。
對于關鍵信息基礎設施(“關基”)運營者而言,選擇安全可信的網絡產品和服務更是一個“必做項”而非“可選項”,若關基運營者采購的網絡產品和服務可能影響國家安全的,將會觸發網絡安全審查。如在今年3月31日,網絡安全審查辦公室發布公告稱,為保障關鍵信息基礎設施供應鏈安全,防范產品問題隱患造成網絡安全風險,維護國家安全,對美國芯片制造商美光公司在華銷售的產品實施網絡安全審查。如最終該網絡產品或服務經審查認定確實影響國家安全的,對于采購方而言,則不僅采購合同可能存在無效風險,其次,對采購方運用該產品或服務而研發的產品也需要進行下架、整改等工作,對業務影響巨大。因此,選擇安全可信的軟件、工具、計算和數據資源將有助于推動后續業務的順利開展。
問題三:如何理解“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息”?
第四條 提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,符合以下要求:(四)利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息。
《辦法》第四條對利用生成式人工智能生成內容提出遵守法律法規、尊重社會公德與公序良俗的原則性要求,第四款將其細化為兩項合規義務:一是要求生成式人工智能生成的內容真實準確,一是要求生成式人工智能提供者應當采取防止生成虛假信息的措施。
但針對如何判斷生成內容是否真實準確,也即虛假信息的標準問題,《辦法》卻沒有進一步明確。從文義出發,“虛假”意為“不真實”、“不實在” ,參照《反不正當競爭法》中的“虛假信息”的理解,當所傳播的事實與實際情況不一致時,所傳播的事實就可以被認定為“虛假信息”。事實上,生成式人工智能由機器學習模型和深度學習技術驅動,需要基于對歷史數據的大量研究來自主生成全新內容,整個生成式人工智能生成內容的過程包含“輸入”和“輸出”兩個階段,前者依靠既有信息的輸入,使人工智能進行深度學習,后者是利用人工智能生成新內容。因而,一方面歷史數據本身可能就存在不真實、虛假的情況,另一方面人工智能生成內容技術本身也處在快速變革中,很難保證每次生成的文章、圖像、音頻、視頻等內容都完全真實、與事實相符。因此,直接要求生成內容應當真實準確在操作層面是否存在執行困難?如何掌握《辦法》第四條中的“虛假信息”認定標準?還需要細化的規范輔助理解。
此外,《辦法》第四條第四款要求生成式人工智能產品(服務)提供者應當采取防止生成虛假信息的措施,目的是想通過對生成式人工智能產品(服務)提供者設定義務的方式來從實際層面減少虛假信息的產生,但卻并未明確生成式人工智能產品(服務)提供者應當采取何種措施,是技術層面的措施要求還是要加強提供者審核,若是后者的話,該義務的邊界在哪里?如果生成式人工智能產品(服務)提供者采取了防止措施仍產生虛假信息,是否可以達到免責的效果?因而該條款仍需進一步細化以加強可操作性,平衡好利用生成式人工智能生成內容過程中各方主體的權利和義務,以防對生成式人工智能產品(服務)提供者施加過當的合規義務負擔而抑制該技術或是市場的發展。
問題四:如何理解《辦法》第五條中的“提供者”,應包含哪些主體?
第五條 利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任 ;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。
從《辦法》第五條看,“提供者” 是利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人。此處的“利用”并未明確系利用己方自主研發的生成式人工智能產品還是利用他方研發但己方可使用的生成式人工智能產品;此處的“提供”也未明確系直接提供還是間接提供。既然未明確,我們可以認為這幾種情形中的己方都屬于“提供者”的范疇,綜合而言,包括:
1. 己方利用己方自主研發的生成式人工智能產品提供內容生成服務;
2. 己方利用他方自主研發的生成式人工智能產品提供內容生成服務(包括通過可編程接口的方式利用);
3. 他方利用己方自主研發的生成式人工智能產品提供內容生成服務(包括通過可編程接口的方式利用)。
但請注意,如己方僅是接受他方委托,單純為他方研發生成式人工智能產品提供技術服務,那么己方作為技術服務方,不應被視為《辦法》中的“提供者”而承擔產品生成內容生產者的責任;此外,如《辦法》第一條所述,生成式人工智能,是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。如提供技術服務的己方可自主決定預訓練數據的來源、算法的設定、模型的搭建等其中的一項或幾項模塊,己方至少應遵守《辦法》中的數據來源合法、算法不歧視等合規義務,從實質大于形式的角度,己方亦可能構成 “提供者”的身份。
問題五:提供者如何向國家網信部門進行安全評估申報及履行算法備案手續?
第六條 利用生成式人工智能產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》向國家網信部門申報安全評估,并按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。
從上述規定來看,首先,《辦法》擬將“利用生成式人工智能產品向公眾提供服務”納入到《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》(“《安全評估規定》”)所規制的客體,即“具有輿論屬性或社會動員能力的互聯網服務”中,故應按《安全評估規定》進行安全評估申報。根據《安全評估規定》,安全評估申報流程如下圖所示:

其次,由于生成式人工智能產品研發運用到算法技術,因此也需要根據《互聯網信息服務算法推薦管理規定》(“《算法規定》”)履行相應的算法備案手續。根據《算法規定》,算法備案手續的相關流程如下圖所示:

問題六:《辦法》中“標注”與“標識”有何區別?
第八條 生成式人工智能產品研制中采用人工標注時,提供者應當制定符合本辦法要求,清晰、具體、可操作的標注規則,對標注人員進行必要培訓,抽樣核驗標注內容的正確性。
第十六條 提供者應當按照《互聯網信息服務深度合成管理規定》對生成的圖片、視頻等內容進行標識。
《辦法》第八條和第十六條分別規定了對“標注”和“標識”的要求,相比于《辦法》第八條針對的是產品研發階段對訓練數據的標注行為,《辦法》第十六條旨在規制內容生成物的標識行為,兩者規制的對象和相應要求有所不同。
由于生成式人工智能產品研發時需要開展算法模型訓練,因此需要對大量的數據進行標注,為機器學習提供訓練數據。基于此,《辦法》第八條所強調的人工標注的標注規則及流程的明確、具體、規范化,不僅可以提高人工標注的效率、降低成本,也有助于提高后續算法模型的準確性和最終所研發產品的質量。
而根據《辦法》第十六條所援引的《互聯網信息服務深度合成管理規定》相關規定,提供者如提供深度合成服務,應在生成內容的合理位置、區域添加顯著且不得影響用戶使用標識,并依照法律、行政法規和國家有關規定保存日志信息。
問題七:什么是防沉迷設置,提供者如何實施防沉迷設置?
第十條 提供者應當明確并公開其服務的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內容。
防沉迷設置最初是指針對未成年人對網絡游戲的防沉迷系統設置,旨在利用技術手段避免未成年人過度沉迷網絡游戲。《辦法》第十條強調提供者應當確定并公開其服務的適用人群、場合以及用途,從而針對不同人群或用途等特點來設置適當措施防范用戶過度依賴或沉迷生成內容。一方面是為了更好保障不同用戶群體的權益,另一方面可能還涉及到算法倫理的要求,例如《互聯網信息服務算法推薦管理規定》第八條要求算法推薦服務提供者不得設置誘導用戶沉迷等違反法律法規或者違背倫理道德的算法模型。但具體如何采取適當措施,如何判斷措施是否適當、企業是否符合合規要求,還需要進一步明確。
對于“提供者”來說,可以參考此前國家開展的未成年人防沉迷執法專項指導下的游戲行業的一些具體措施,采取實名認證區分未成年人用戶、限制使用時長或是固定使用時間段、定時彈窗提示用戶防沉迷等技術手段構建平臺防沉迷機制。
問題八:提供者如何實現對用戶的輸入信息和使用記錄的保護義務?
第十一條 提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。法律法規另有規定的,從其規定。
根據《辦法》第十一條,企業承擔對用戶的輸入信息和使用記錄的保護義務,應做好三步走,一是不得非法留存能夠推斷出用戶身份的輸入信息。由于信息由用戶主動提供,對于“提供者”而言,屬于在用戶同意下的收集,用戶實現處理目的后,原則上“提供者”應將輸入信息中夠推斷出用戶身份的信息做刪除處理,除非有繼續留存的合法性基礎,如用戶的同意,法律規定的義務等,否則將視為非法留存。
二是不得根據用戶輸入信息和使用情況進行畫像。《信息安全技術 個人信息安全規范》3.7條將用戶畫像定義為“通過收集、匯聚、分析個人信息,對某特定自然人個人特征,如職業、經濟、健康、教育、個人喜好、信用、行為等方面作出分析或預測,形成其個人特征模型的過程。”歐盟第29條保護工作組在《自動化個人決策和用戶畫像的指導原則》指出用戶畫像過程主要涉及三個階段,包括數據的采集、自動分析以識別關聯性,以及將個人關聯性加以應用對自然人當前特征及未來行為進行預測分析。用戶畫像可視為對個人信息的處理,未經個人的同意,“提供者”不應根據用戶提供的信息對其進行畫像。
三是不得向他人提供用戶輸入信息。根據《個人信息保護法》,個人信息處理者向他人提供個人信息的,應取得個人信息主體的單獨同意,且應告知接收方的名稱或者姓名、聯系方式、處理目的、處理方式和個人信息的種類。很顯然,根據生成式人工智能產品交互界面,“提供者”難以履行這些合規義務。
問題九:《辦法》第十三條是否體現了避風港原則和紅旗原則?
第十三條 提供者應當建立用戶投訴接收處理機制,及時處置個人關于更正、刪除、屏蔽其個人信息的請求;發現、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權、名譽權、個人隱私、商業秘密,或者不符合本辦法要求時,應當采取措施,停止生成,防止危害持續。
“避風港原則”是指網絡服務提供者只有在知道侵權行為或侵權內容的存在后才有義務采取措施,如刪除、屏蔽或是斷開鏈接等。如果在明確知道侵權事實后,仍不及時采取相關措施,則需要承擔責任。“避風港原則”體現在民法典的第1195條、第1196條;“紅旗原則”是指當侵權事實顯而易見,像“紅旗一樣飄揚”時,網絡服務提供者不能假裝看不見,或者以不知道侵權為由推脫責任。即在按常理和應盡的基本審慎義務的情況下,網絡服務提供者應當知道侵權行為的存在卻不刪除鏈接,即使權利人沒有發出刪除通知,網絡服務提供者也應當承擔侵權責任。“紅旗原則”體現在民法典的第1197條,可視為避風港原則的例外。
《辦法》第十三條中,“提供者”發現、知悉侵權事實可能基于權利人的通知而知悉,也可能是基于履行應盡的審慎義務而發現、知悉。我們認為,兩種原則皆有體現,當“提供者”發現、知悉后,應采取措施,停止生成,防止危害持續,否則可能承擔因未及時采取措施而導致侵權后果擴大的責任。由于生成式人工智能產品或服務的使用具有一定的私密性和隱蔽性,權利人被侵權的事實可能難以被發現,我們預測,未來將會對“提供者”自身應盡的審慎義務提出更多的合規要求。
問題十:提供者的信息披露義務如何實現?
第十七條 提供者應當根據國家網信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標注規則,人工標注數據的規模和類型,基礎算法和技術體系等。
市場主體的披露義務從來不是孤立的,我們可以在多部法律中看到各類信息披露的要求,如個人信息處理者在處理個人信息前,應向個人告知個人信息的處理目的、處理方式,處理的個人信息種類、保存期限等;算法推薦服務提供者應以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等;電子商務經營者應當全面、真實、準確、及時地披露商品或者服務信息,保障消費者的知情權和選擇權等。
《辦法》第十七條中,明確了“提供者”需提供的內容,即可以影響用戶信任、選擇的必要信息,同時指出了提供的依據,即根據國家網信部門和有關主管部門的要求,但具體是怎樣的要求,如在何種觸發情形下提供,如何提供,向誰提供等內容在《辦法》中均未明確,有待于進一步的細化。當然我們不能要求一部尚未經市場實踐檢驗的規定盡善盡美,但該條規定可視為監管部門后續開展治理工作埋下了伏筆。
結語
創新是發展的第一驅動力,在可以預測的未來,技術仍將不斷突破與被突破,人工智能終將迭代到強人工智能甚至超人工智能的階段。愿景與科技同行,溫度與法度如一。在高速刷新的技術潮流中,在高漲的投資熱情和集中的產業爆發中,在這個“人工智能元年”的歷史坐標點上,作為法律行業中的我們是否也應當堅守一些變與不變?
華東師范大學紀楠同學對此文亦有貢獻






