數字經濟背景下算法治理的目標、難點與解決路徑(下)
作者:吳衛明 2023-06-13三、算法治理的難點與解決路徑
1、算法分類分級治理的難點與解決路徑
(1)分類分級治理的基本規則
對于分類分級治理,在《算法規定》及相關法律法規中已經有所體現。比如,在資管新規中所體現的避免算法缺陷引發羊群效應,即是對決策類算法的規制。
而《電子商務法》第八十一條對競價排名商品或服務應明顯標記“廣告”的規定,則可以視為是排序精選類算法的一種規制[1]。
對于個性化推送類,則在《個人信息保護法》中做了規制,如該法第二十四條規定,通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。《電子商務法》第十八條也做了類似的規定:“電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其提供商品或者服務的搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益。”
對于生成合成類算法,《深度合成規定》,則做了較為系統的規范。《深度合成規定》第七條對于深度合成服務提供者的責任做了界定,其中算法機制機理審核與科技倫理審核的規定特別值得關注。
此外,《深度合成規定》第十六條規定,深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當采取技術措施添加不影響用戶使用的標識,并依照法律、行政法規和國家有關規定保存日志信息。
對于深度合成服務提供者而言,提供智能對話、智能寫作;合成人聲、仿聲等語音生成;人臉生成、人臉替換、人臉操控、姿態操控等人物圖像、視頻生成;沉浸式擬真場景等生成等深度合成服務,可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識,向公眾提示深度合成情況。[2]對于深度合成標識,任何組織和個人不得采用技術手段刪除、篡改或隱匿。[3]
上述規定可以看出,分類治理可以針對不同算法的原理、對社會公眾的影響制定不同的監管措施。
與分類治理相比,分級治理的規則設置則較為簡單。從當前的規則來看,分級治理最主要的規定是對于具有輿論屬性或社會動員能力的算法進行監管。
《算法規定》及《深度合成規定》中,對于具有輿論屬性或者社會動員能力的算法推薦服務提供者,均要求進行備案。此外,深度合成服務提供者開發上線具有輿論屬性或者社會動員能力的新產品、新應用、新功能的,應當按照國家有關規定開展安全評估。
(2)分級治理機制需要進一步完善的問題
雖然《算法規定》及《深度合成規定》均要求具有輿論屬性或者社會動員能力的算法推薦服務提供者進行備案。但是,對于什么是具有“輿論屬性或者社會動員能力”,上述規定卻并未進一步界定。
“輿論屬性或者社會動員能力”的表述,在《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》中最早進行了規定。該規定中,將“具有輿論屬性或社會動員能力的互聯網信息服務”定義為(一)開辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網絡直播、信息分享、小程序等信息服務;或者(二)開辦提供公眾輿論表達渠道或者具有發動社會公眾從事特定活動能力的其他互聯網信息服務。
按照上述定義,可以看出,提供具有信息傳播、交流、溝通功能的信息服務,或者提供公眾輿論服務,以及具有能夠發動社會公眾從事特定活動的服務,都可以視為具有輿論屬性或社會動員能力。算法推薦服務也屬于一種互聯網信息服務,因此,《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》對于“具有輿論屬性或社會動員能力的互聯網信息服務”的界定,也可成為認定具有輿論屬性或者社會動員能力的算法推薦服務的參照依據。
實際上,開辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網絡直播、信息分享、小程序等信息服務或者附設相應功能,其服務的目的在于提供信息傳播、交流、溝通的場所或通道,為了優化相應服務,可能對應的算法推薦服務包括:生成合成類、個性化推送類、排序精選類、檢索過濾類等。
對于提供公眾輿論表達渠道或者具有發動社會公眾從事特定活動能力的其他互聯網信息服務,其服務過程中,也會涉及個性化推送類、排序精選類、生成合成類與調度決策類等算法服務。
從《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》確定的原則可以看出,“具有輿論屬性或社會動員能力”是與服務內容相對應的,而并不直接與信息的傳播范圍或能夠發動的社會公眾范圍相對應。
從算法生態治理和社會公共秩序的角度看,這一認定無疑有利于對算法的從嚴治理。但是,這也會產生一個問題,即所有的算法推薦服務都可能需要面臨備案。而企業為了規避風險,可能會將所有的算法均實施備案,這不僅會增加企業備案的成本,也會弱化算法備案的針對性,從而使得監管成本大幅度提升。
對此,筆者認為,對于輿論與社會動員能力認定標準的進一步細化,有利于優化算法備案。細化有關標準的過程中,可以考慮以下幾方面的因素:其一、算法對于用戶思想認知的影響,如算法是否會對用戶的社會行為認知、宗教認知、種族認知、社會階層認知、政治傾向認知產生重要影響,或包含某種歧視性的社會觀念。其二、算法是否具有調動人群物理空間分布的能力,比如通過算法可能影響人員的聚集或公共場所的活動等。其三、算法是否存在危害社會公共利益、國家安全的因素。
2、關于說明義務的實現
《算法規定》第十七條規定:算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。用戶選擇關閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關服務。算法推薦服務提供者應用算法對用戶權益造成重大影響的,應當依法予以說明并承擔相應責任。
這一規定,對應的是《個人信息保護法》第二十四條關于自動決策的內容,即自動化決策應提供不針對個人的選項,以及通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。
此外,《算法規定》第十二條還規定,鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛。其中,算法的透明度和可解釋性,與算法的說明義務具有類似性。
《算法規定》第十七條、第十二條及《個人信息保護法》第二十四條關于算法說明權的規定,可以理解為對算法治理中“透明”原則的具體落實。但在實踐中,關于算法的說明,仍有諸多問題有待解決。
(1)算法說明存在的難點
筆者認為,對于算法的說明,存在兩大難點:
其一,什么是重大影響?
《個人信息保護法》并未界定什么是重大影響,《算法規定》提到了算法應用的若干限制,比如,對未成年人提供算法推薦服務的限制、對勞動者提供工作調度服務的限制,以及對老年人及其他特定人群提供算法推薦服務的限制。這些限制所針對的是特定人群利益,似乎是立法者重點關注的問題,可否作為個人權益構成重要影響的判斷依據呢?基于法律的公平原則,僅將重大影響理解為特定群體利益并不妥當。另一種理解則是,將個人權益的重大影響理解為對某些特定法益的損害,如侵害人格尊嚴、財產權、人身安全的權利等。
筆者認為,對于個人權益的重大影響,應結合不同算法對個人造成的影響進行判斷:有些算法雖然會影響個人的選擇,但影響往往僅限于信息獲取的選擇權問題,比如個性化推送類、排序精選類、檢索過濾類等算法,雖然也會對個人利益造成影響,但這種影響往往可控;而生成合成類,如果對個人權益造成侵害,則也可以通過肖像權或一般人格權的訴訟得到糾正;但是,如果采用調度決策類算法,則會影響到個人的實際經濟利益或工作的休息權利,且并無其他的法律救濟渠道。因此,對于個人權益重大影響,不宜一刀切適用于各種算法,而是應有所限制,針對不同算法對個人權利的不同影響,界定重大影響。必要時,采用列舉的方式予以列示。
其二,算法說明義務如何實現?
法律及相關的規則,對于如何實現算法的說明,并未予以規定。如果個人對于算法說明不予接受,或者企業拒絕提供算法說明。該行為是否屬于《個人信息保護法》中隨規定的個人信息處理者拒絕個人行使權利的情形?個人是否可以據此向人民法院提起訴訟?
此外,對于算法的說明程度,也是算法說明過程中的難點。企業可能會以商業秘密為由,或者以算法黑箱為由,拒絕做出適當的說明。而由于法律界定較為籠統,對于算法的監管機關或是司法機關而言,也缺乏必要的規則對算法的說明問題進行規制。
(2)對于算法說明的制度優化
筆者認為,算法的說明并非完全無章可循,按照《算法規定》的原則,公平、公正原則是算法服務的基本原則。由于算法說明義務的適用主要是針對個人權益的重大影響,因此,算法說明應主要基于算法是否符合公平、公正原則展開。
對于算法形成的過程及要素而言,應從以下幾個方面予以說明:
其一、算法設計的目的
算法設計的目的決定了算法的設計與運行是否會影響個人權益,目的正當性是算法不會侵害用戶或消費者權益的基礎。比如,在以對不同消費進行定價為目的的算法中,就首先需要算法服務提供者對于算法設計的目的進行說明,如果算法目的是提供不合理的差別定價,則該種算法服務將侵犯消費者的權益。而如果算法的目的是合理的差異化定價,則需要對算法的原理和運營機制進行說明。
其二、算法的基本原理和運行機制
《算法規定》第十六條規定,算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。
在目的正當性的前提下,算法服務提供者公示算法服務原理及主要運行機制。筆者認為,如果公示僅僅達到披露存在算法服務這一層面,顯然無法達到說明的效果。合理的公示應該是對于算法本身的原理和運行機制進行說明。即,算法設計考慮的主要因素,以及這些因素如何影響算法的輸出。
其三、算法非歧視性的說明
當然,算法基本原理和運行機制的披露,可能會涉及到企業的商業秘密。筆者認為,對于運行機制的披露,至少應達到能夠說明算法并不具有法定的歧視性內容。算法應具有可驗證性,即針對個人的算法,應能夠通過測試性的輸入來驗證算法不具有歧視性。
其四、算法訓練數據的真實性、準確性、客觀性、多樣性
在深度學習算法訓練過程中,預訓練數據和優化訓練數據的真實性、準確性、客觀性、多樣性,能夠在很大程度上影響算法的質量乃至算法的正當性與非歧視性。《生成式人工智能服務管理辦法(征求意見稿)》第七條規定,提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。用于生成式人工智能產品的預訓練、優化訓練數據,應滿足以下要求:(一)符合《中華人民共和國網絡安全法》等法律法規的要求;(二)不含有侵犯知識產權的內容;(三)數據包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規規定的其他情形;(四)能夠保證數據的真實性、準確性、客觀性、多樣性。
(3)算法知情權訴訟問題
《個人信息保護法》第二十四條規定“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”。這一規定,對于通過自動化決策提供服務的個人信息處理者而言,設定了法定的說明義務,與此相對應,接受服務的個人信息主體則擁有知情權。據此規定,是否能夠必然推導出個人信息主體對于算法應用具有知情權,并進而擁有訴權?
筆者認為,自動化決策是一個較大的概念,而算法則是自動化決策的一個重要環節或組成部分。如果自動化決策中包含了算法的運用,則個人信息主體擁有對算法的知情權。
雖然算法的知情權被《個人信息保護法》確立為一項民事權利,但該權利如何獲取司法救濟,仍有若干需要進一步明確的地方。
首先,自動化決策的舉證問題。法律僅規定個人有權要求個人信息處理者予以說明。從這一規定來看,個人信息處理者說明義務的前提是通過自動化程序做出決定,也就是說,首先要有自動化決策的事實,然后才有說明義務。如果按照誰主張誰舉證的一般原則,則個人信息主體可能根本無法完成初步的舉證,從而不具有主張知情權的請求權基礎。
對此,筆者認為,由于自動化決策本身會對個人權益造成影響,且自動化程序的系統、代碼、運行邏輯均由個人信息處理者掌握,個人實際上并不具有舉證的能力。由個人進行舉證,并不符合法律的公平原則。同時,個人信息保護法第六十九條對于侵權損害也規定了無過錯責任原則,處理個人信息侵害個人信息權益造成損害,個人信息處理者不能證明自己沒有過錯的,應當承擔損害賠償等侵權責任。因此,無論從《個人信息保護法》的立法精神還是公平原則,在個人提出自動化決策知情權的前提下,采用自動化決策的個人信息處理者對于是否采用了自動化決策,負有舉證責任。
其次,對于算法說明的內容與程度。對此,筆者在上文已經進行的分析,個人信息處理者應說明算法設計的目的、算法的基本原理和運行機制、算法非歧視性的說明,以及算法訓練數據的真實性、準確性、客觀性、多樣性。
但問題是,對于上述內容的說明應達到何種程度,才可以視為盡到了算法說明義務?
筆者認為,說明義務應以達到對算法目的合法性、算法運行非歧視性說明的程度為原則。雖然算法說明的內容較為復雜,但應以算法運用與個人的歧視性待遇之間的因果關系作為核心說明內容。也就是說,不應對算法的說明做無限擴展。此外,算法的商業合理性與算法的合法性的邊界,也應準確把握。比如,某種算法不夠優化,對于消費者的分析、決策未必符合最優原則,但由于該種不準確是一種普遍性的問題,并不針對某些特定人群形成歧視,則不宜認定存在歧視。只有在某些歧視性規則被植入算法,或者進行算法測試過程中證明了存在對特定人群標簽的歧視性,才能認定存在歧視性算法。
算法規制是大數據應用與人工智能發展的必然產物,分類分級以及算法的說明問題,是算法規制的重要問題。如何優化、完善算法分類分級治理,以及如何實現說明義務,是算法治理過程中需要進一步優化的問題。
注釋
[1] 《電子商務法》第八十一條電子商務平臺經營者違反本法規定,有下列行為之一的,由市場監督管理部門責令限期改正,可以處二萬元以上十萬元以下的罰款;情節嚴重的,處十萬元以上五十萬元以下的罰款:
(一)未在首頁顯著位置持續公示平臺服務協議、交易規則信息或者上述信息的鏈接標識的;
(二)修改交易規則未在首頁顯著位置公開征求意見,未按照規定的時間提前公示修改內容,或者阻止平臺內經營者退出的;
(三)未以顯著方式區分標記自營業務和平臺內經營者開展的業務的;
(四)未為消費者提供對平臺內銷售的商品或者提供的服務進行評價的途徑,或者擅自刪除消費者的評價的。
電子商務平臺經營者違反本法第四十條規定,對競價排名的商品或者服務未顯著標明“廣告”的,依照《中華人民共和國廣告法》的規定處罰。
[2] 《互聯網信息服務深度合成管理規定》第十七條 深度合成服務提供者提供以下深度合成服務,可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識,向公眾提示深度合成情況:(一)智能對話、智能寫作等模擬自然人進行文本的生成或者編輯服務;(二)合成人聲、仿聲等語音生成或者顯著改變個人身份特征的編輯服務;(三)人臉生成、人臉替換、人臉操控、姿態操控等人物圖像、視頻生成或者顯著改變個人身份特征的編輯服務;(四)沉浸式擬真場景等生成或者編輯服務;(五)其他具有生成或者顯著改變信息內容功能的服務。
[3] 《互聯網信息服務深度合成管理規定》第十八條 任何組織和個人不得采用技術手段刪除、篡改、隱匿本規定第十六條和第十七條規定的深度合成標識。






