日日碰狠狠躁久久躁96avv-97久久超碰国产精品最新-婷婷丁香五月天在线播放,狠狠色噜噜色狠狠狠综合久久 ,爱做久久久久久,高h喷水荡肉爽文np肉色学校

睿治

智能數據治理平臺

睿治作為國內功能最全的數據治理產品之一,入選IDC企業數據治理實施部署指南。同時,在IDC發布的《中國數據治理市場份額》報告中,連續四年蟬聯數據治理解決方案市場份額第一。

許可:算法規制體系的中國建構與理論反思

時間:2022-02-21來源:心碎半條街瀏覽數:171

目? 次

一、中國算法規制的形式

二、中國算法規制的實質

三、中國算法規制體系的檢視與完善

四、結語

? ? ? ?[摘要]隨著一系列算法新規的出臺,中國算法規制體系日漸成型,但其實踐脈絡尚未梳理,理論癥結尚未探明。立基于《關于加強互聯網信息服務算法綜合治理的指導意見》《互聯網信息服務算法推薦管理規定》和既有監管經驗,中國形成了包括“國家網信辦”(規制主體)、“算法服務”(規制對象)和“巡警機制、火警機制、片警機制”(規制工具)在內的外部規制結構,以及以“算法安全”“算法公平”“算法向善”為依歸的內在規制價值。盡管中國算法規制體系已經初步建立,但仍未臻完善。為此,有必要引入“算法發展”平衡算法安全,引入“權利公平”補充算法公平,引入“私人自主”調和算法向善,進而推動規制主體分工協作、拓展規制對象范圍、優化規制工具,以鑄就彰顯中國風格、體現中國智慧的算法規制體系。

? ? ? ?[關鍵詞]算法安全;算法公平;算法向善;算法發展

在日益由計算機所主宰的世界,作為計算機程序實現、基于數據分析、面向特定目標的一套指令,算法已無所不在,算法的影響亦“無微不至”。在此背景下,2020年9月和10月,相繼出臺的《關于加強互聯網信息服務算法綜合治理的指導意見》(下稱“《算法治理意見》”)和《互聯網信息服務算法推薦管理規定》(下稱“《算法推薦規定》”)備受矚目,其不但是我國首次以“算法”為名的法律文件,更是世界范圍內全面回應算法挑戰的體系性嘗試。鑒于這兩部算法新規對于中國算法規制體系的重要意義,本文將以之為中心,深入剖析我國算法規制的形式與實質,展現其風格,并反思其可能的不足與改進之道,以期有裨于算法治理的完善。

? ? ? ?一、中國算法規制的形式

? ? ? ?規制的主體、對象和方式構成了規制的基本形式,通過對中國特有的監管機構、被監管主體和監管工具的剖析,我國算法規制的外部結構得以展現。

? ? ? ?(一)誰在規制?

? ? ? ?《算法推薦規定》第三條明確規定,國家網信部門負責全國算法推薦服務的監督管理執法工作。這里的“國家網信部門”即“國家互聯網信息辦公室”(下稱“國家網信辦”)2014年2月,中央網絡安全和信息化領導小組成立,其著眼國家安全和長遠發展,統籌協調涉及經濟、政治、文化、社會及軍事等各個領域的網絡安全和信息化重大問題,研究制定網絡安全和信息化發展戰略、宏觀規劃和重大政策,推動國家網絡安全和信息化法治建設。領導小組同時設立中央網絡安全和信息化領導小組辦公室作為辦事機構,并由國家互聯網信息辦公室承擔具體職責。2014年8月,國務院發布《關于授權國家互聯網信息辦公室負責互聯網信息內容管理工作的通知》,授權重新組建的國家網信辦負責全國互聯網信息內容管理工作。

? ? ? ?此后,國家網信辦的職權從“信息內容領域”逐漸向“網絡安全領域”拓展。2017年生效的《網絡安全法》賦予其統籌協調網絡運行安全、網絡信息安全及其監督管理,工信部、公安部等部門按照各自職責負責網絡安全保護工作,由此形成“1+X”的監管架構。2021年,《數據安全法》延續了這一思路,在確立中央國家安全領導機構統管國家數據安全工作的決策和議事協調基礎上,賦予國家網信辦統籌協調網絡數據安全的監管權,工業、電信、交通、金融、衛生健康等主管部門以及公安部、國家安全部在各自職責范圍內承擔數據安全監管職責。

? ? ? ?國家網信辦并未止步于此。在信息技術推動下,經濟業態、社會交往快速更迭,網絡空間和線下空間深度融合,網絡化邏輯的擴散實質地改變了生產、權力與文化過程中的操作和結果。之前被認為是“信息內容管控”或“網絡安全管理”的事項,開始向“網絡社會治理”邁進,數據治理、平臺治理、網絡生態、電子商務等個人信息保護、未成年保護、勞動者保護等議題相繼涌現。不過,議題的復雜并未導致監管主體的分散,恰恰相反,實證研究表明,我國的網絡治理由碎片化不斷向集中化轉變,從多達71個國家機關參與的監管結構,轉向國家網信辦、工信部、公安部為主的核心治理體系。其中,國家網信辦的影響力與日俱增。據統計,1994年到2017年間,工信部共發布了98項互聯網法律文件,而國家網信辦在短短四年就頒行了47項。國家網信辦的突出地位一方面源于對互聯網領域“多頭管理、職能交叉、權責不一、效率不高”以及“網上媒體管理和產業管理遠遠跟不上形勢發展變化”的頂層判斷,另一方面源于“中央網絡安全和信息化領導小組”改為“中央網絡安全和信息化委員會”后所享有的集中統一領導的權威地位。國家網信辦作為其執行機構,得以在網絡安全和信息化兩端發力。基于此,雖然2021年頒行的《個人信息保護法》維持了個人信息保護多頭監管的態勢,但通過“規則制定權相對統一”,明確了國家網信辦統籌其他部門制定個人信息保護具體規則、標準,特別是針對敏感個人信息以及人臉識別、人工智能等新技術、新應用的專門規則和標準的權力。在上述監管格局下,《算法治理意見》重申了國家網信辦相對于其他政府部門的優先地位。作為最重要的算法規制機構,國家網信辦的變遷歷史和權力淵源必將深刻影響中國算法的規制風格。

? ? ? ?(二)規制什么?

? ? ? ?《算法推薦規定》看似以“算法推薦技術”為鵠的,但實際上,正如其第二條第一款所示,“應用算法推薦技術提供互聯網信息服務”才適用《算法推薦規定》,換言之,“算法推薦服務”而非“算法推薦技術”才是其真正的規制對象。由此可以理解,為何第二條第二款列舉的“生成合成類、排序精選類、檢索過濾類、調度決策類”等算法已經遠遠超出了個性化推薦技術的范圍。同樣,第19條中的“分類分級管理制度”并不是對算法的分類分級,而是根據“算法推薦服務的輿論屬性或者社會動員能力、內容類別、用戶規模、算法推薦技術處理的數據敏感程度、對用戶行為的干預程度”,對“算法推薦服務”的分級分類,并就具有輿論屬性或者社會動員能力的算法推薦服務提供者嚴加規制,要求其在提供服務之日起10個工作內履行備案手續。

? ? ? ?可見,《算法推薦規定》與其說是“規制算法”,毋寧是“規制算法服務”,這固然有著國家網信辦信息內容管理上的職權考量,但在根本上,源于作為技術的算法之無法規制性。傳統上,法律將技術視為外在于人的“工具”,以“技術研究與技術應用的人為分離”與“技術規制的終端責任”為原則,通過事前標準設定和事后侵權責任予以規制。然而,這一前提性預設不再適用于算法。一方面,算法是內嵌于社會并積極變革社會的構成性技術,它不但改變了生產方式和生產性資源的組織方式,而且改變了人際關系和生產關系。另一方面,算法具有“不可感知性”“不可計算性”和“人為不確定性”,無論法律如何縮減其風險的隨機性,其剩余風險永遠存在,法律和風險在時間組合、知識結構上的差距,使法律并非最佳解決方式。故此,只有擯棄單純規制算法技術的原子論思路,從系統論出發,將算法所棲身的演化體系、組織形態、應用場景一并納入規制,才不會陷入“只見樹木,不見森林”的困境。據此,算法規制一方面是場景化的,依循使用主體、針對對象、所涉事項,因地因時因人而異地采用不同的規制方法;另一方面,算法規制亦是整體性的,立足于法律系統與算法系統的二元性,發掘出兩者沖突與耦合的互動機制及一般原理。場景化和整體性兼備的規制思路,形成了“總體計劃、分步監管”的中國算法特有路徑。

? ? ? ?(三)如何規制?

? ? ? ?面對“算法服務”這一全新事務,《算法推薦規定》在傳統的“巡警(Police Patrols)機制”和“火警(Fire Alarms)機制”之外,創造性地發展出“片警機制”,形成了融三種機制于一體的規制體系。

? ? ? ?“巡警機制”意味著監管機構積極、主動、集中地履行職責,在事前、事中發現和糾正違反立法目標的行為,并通過實時性執法,阻止違法行為的發生或升級?!端惴ㄍ扑]規定》第24條中“網信部門會同有關主管部門開展算法安全評估和監督檢查工作,對發現的問題及時提出整改意見并限期整改”便是典型的巡警機制。不過,與域外“算法影響評估”(Algorithm Impact Assessment)不同,中國的“算法安全評估”在應用領域、協調機制、評估標準和評估工具等方面均有所不同,后者強調由監管機構牽頭組織建立專業技術評估隊伍,深入分析推薦算法的機理,評估算法設計、部署和使用等應用環節的缺陷和漏洞,研判意識形態、社會公平、道德倫理等安全風險,提出針對性應對措施。此外,“算法安全風險監測機制”亦是巡警機制的重要一環。依據《算法治理意見》,監管機構對算法的數據使用、應用場景、影響效果等開展日常監測工作,感知算法應用帶來的網絡傳播趨勢、市場規則變化、網民行為等信息,預警算法應用可能產生的不規范、不公平、不公正等隱患。

? ? ? ?“火警機制”意味著監管機構建立一套實體規則和程序體系,為民眾提供事后投訴、舉報的渠道,通過分散化的“私人執法”(private enforcement)實現救濟并處罰違規者。就此而言,監管機構并不去嗅探火苗,而是在街角放置火災報警器,建造鄰里的消防屋,盡快響應警報以消除危險。《算法推薦規定》大量設置此類機制,特別是賦予用戶寬泛的選擇權、拒絕權、解釋權和對用戶標簽的查閱、更改、刪除權,要求算法服務提供者接受社會監督,建立用戶申訴渠道和制度。《算法治理意見》則提出著力解決網民反映強烈的算法安全問題,嚴厲打擊網民舉報并查實的涉算法違法違規行為。

? ? ? ?巡警機制和火警機制各有利弊,前者需要監管者具有與之相應的資源和能力,即不會遺漏違法行為又不至于被被監管者俘獲;后者需要民眾獲得充分、有效的激勵發出異議,既不會淪為沉默的大多數又不至于濫用其權利。無論如何,這兩者對于算法規制而言,依然不夠,因為其并未反映出算法風險的內在屬性。那么,何為算法特有的風險?《算法霸權》直指實質:算法就像上帝一樣晦暗不明,只有該領域最高級別的牧師,才明白模型如何運作。“算法黑箱”(algorithmic black-box)由此成為算法規制的出發點。故而,《算法推薦規定》將“算法備案”作為打開黑箱的首要之舉。創新性技術的備案制度其來有自,中國人民銀行《關于規范金融機構資產管理業務的指導意見》、國家網信辦《區塊鏈信息服務管理規定》對智能投顧和區塊鏈技術的備案要求均是典型例證。

? ? ? ?作為一種行政事實行為,算法備案不會對備案人的權利義務產生直接影響,也不意味著監管機構對備案事項真實性、合法性作出行政確認,若后續審查過程中發現備案人使用的算法與備案事項不符,有權要求其改正并追責。就此而言,算法備案旨在通過立此存照、存檔備查,獲取算法服務中具有潛在危害的算法系統資訊,以固定問責點,從而平衡了政府監管與行業自律、信息披露與商業秘密、源頭治理與事后追責的多重訴求。本文將這一監管措施稱為“片警機制”,籍此說明監管機構利用治理耳目和情報網絡,以信息充分采集為基,發揮服務、防范、管控的三重職能。

? ? ? ?算法備案制度的關鍵在于備案范圍?!端惴ㄍ扑]規定》出于規制“算法推薦服務”而非“算法推薦技術”的考慮,排除了“算法研發者”的備案義務;進而,通過算法分級分類,將備案主體限定在具有輿論屬性或社會動員能力的算法推薦服務提供者。其不但與我國《網絡安全法》第37條采用“關鍵信息基礎設施的運營者”來錨定“重要數據”邊界的原理相吻合,也與《數據安全法》中數據分級分類的思路如出一轍,即以數據/算法所引發的外部風險,而非數據/算法自身風險為判斷基礎。最后,《算法推薦規定》一一列舉出服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內容等信息作為登記事項。較諸主張備案內容應包含算法的原始代碼、基本原理、預期目的的觀點,《算法推薦規定》更加審慎,其涵蓋了算法應用是否與目的相稱及其可能引致的公共利益、公民權利風險的評估信息,但將算法數據組、算法模型性能、算法設置邏輯等涉及商業秘密、專利權的內容排除在外。

? ? ? ?片警機制不限于算法備案,倘若我們從熟人社區管理的角度去觀察既有網絡規制,就能發現基于信息傳遞的“約談制度”和“聲譽機制”同樣是其重要體現?;ヂ摼W信息內容監管領域的約談制度由《互聯網新聞信息服務單位約談工作規定》所建立。與監管者一貫強硬的面貌不同,“片警”的約談以柔性形式發揮著溝通、說服、警示、教育、勸誡的功能,督促大型互聯網企業共擔信息內容監管責任。與此不同,憑借著大規模曝光通報違法違規的企業,威懾企業運營最為核心的利益——用戶流量,“聲譽機制”已成為主要執法工具。例如,截至2021年9月,工信部已經發布了19批侵害用戶權益行為的APP通報,最近一期通報數量多達334款。

? ? ? ?二、中國算法規制的實質

? ? ? ?如果說國家網信辦綜合利用巡警機制、火警機制和片警機制實施算法服務監管是中國算法規制的外在形式,那么我們還需進一步發掘中國算法規制的實質目的,恰如德國法學家耶林所言:“尋求目的是法學的最高任務。”也正是在此意義上,算法規制的中國風格才得以最終凸顯。

? ? ? ?(一)算法安全

? ? ? ?在《算法推薦規定》中,“安全”出現了13次,而在《算法治理意見》中,“安全”一詞更是高達36次之多。相較之下,根據約賓(Jobin)等人對全球84種算法規范文件的歸納,大多數文件支持的共識價值,從高到低分別是透明(Transparency)、公正(Justice)、不作惡(Non-maleficence)可問責(Responsibility)與隱私(Privacy)。可見,對安全價值的強調,中國可謂獨樹一幟。然則,何為“算法安全”?

人類的歷史就是一部努力消除危險和將危險最小化,同時增加安全和將安全最大化的歷史。早在古希臘時代,“安全”就用來表達一種確定性、可靠性和不受威脅的狀態,《周易》中的“無危則安,無損則全”亦異曲而同工。然而,隨著高科技時代的來臨,與“安全”相對的“危險(danger)”逐漸被“風險(risk)”所取代。危險往往是局部性、個體性、自然的,風險則是整體性、社會性、人為的。風險的本質并不在于它正在發生,而在于它可能會發生,它與危險相關聯,但它本身并不是危險,而是因不可控制所引發的焦慮與恐懼。因此,風險既是實在的,又是被社會感知和結構建構,既是在技術應用過程中出現的,又是在賦予意義的過程中被生產出來的。面對未確定的、充滿危險的可能性,不論是從保衛自身安全出發,還是基于對民眾的安全承諾,國家都必須改弦易撤,從事后的個體主義安全范式向事前的整體主義安全范式轉變,“綜合安全觀”由此成為算法安全的宏觀指引。

? ? ? ?一方面,對算法安全的精準理解只有在與其他安全聯系在一起時才能獲得,局限于單一層次審視算法安全將招致嚴重的曲解。據此,從信息安全到網絡安全,再到數據安全、算法安全,不過是隨技術—經濟—社會演進而不斷演繹的安全領域拓展,四者同出而異名。算法安全牽一發而動全身,與其他安全事項彼此交錯、互補、融合,共同成為網絡空間整體安全。推而廣之,算法安全亦與政治安全、國土安全、軍事安全、經濟安全、文化安全、社會安全、科技安全并列且相互支援,組成了我國總體安全體系。另一方面,對算法安全的全面認識必須跳脫出技術安全的束縛,邁向更開放、更包容的算法安全界定。這里,我們嘗試著將算法安全拆解成如下三重含義:

? ? ? ?其一,算法自身安全,即避免算法設計缺陷導致其不能穩定、準確地實現其目標的風險,包括但不限于可靠性、準確性、完備性的性能缺陷或結構性缺陷,所依賴的數據來源缺失或偏差。英國信息專員辦公室(ICO)《關于AI審核框架的指南:咨詢指南(草案)》就人工智能算法的安全性提出如下要求:(1)算法的構建和部署方式;(2)算法組織部署系統的復雜性;(3)風險管理能力的成熟度;(4)處理的性質、范圍、背景和目的。算法自身安全一向是域外立法關注的重點所在,相反,算法新規對此著墨不多,僅要求算法推薦服務提供者落實算法安全主體責任,建立健全算法機制機理審核、安全評估監測等管理制度,配備相適應的專業人員和技術支撐。

? ? ? ?其二,算法安全可控,即在人機互動層面上防范算法脫離人的控制,保障人擁有充分自主決定權。從“算法工具論”到“算法權力論”是這一層算法安全含義的理論基礎。為了馴服與消費者“主權”和國家主權相競爭的算法權力,算法新規從如下方面著手:(1)促進算法公開,通過“個體賦權”限制算法權力,督促算法服務提供者及時、合理、有效地公開算法基本原理、優化目標、決策標準等信息,做好算法結果解釋;(2)深入算法架構,通過“穿透式監管”限制算法權力,調控算法中關鍵要素和架構的人工決定策略(如內容去重、打散干預、用戶標簽等),影響算法結果生成;(3)履行算法登記和日志檢查,通過“向監管機構透明”限制算法權力。參考歐盟《人工智能法案》,監管機構有權訪問算法系統數據(包括訓練集、驗證集和測試集)、源代碼,并可以通過技術手段對算法進行分析測試,從而實現算法審查和算法問責。

? ? ? ?其三,算法應用安全,即防控和管理因算法使用引致的意識形態、經濟發展、社會管理、國家主權等宏觀層面的風險。保護“受保護的物體”免受遭損害是“技術安全”最原始的含義之一。當今,作為通用性技術的算法向經濟、社會、政治、文化各領域彌散,法律不得不在綜合安全觀的視野中,立足社會有機整體,從算法自身規制邁向算法活動規制。職是之故,《算法治理意見》尤其強調防范算法濫用風險,維護網絡空間傳播秩序、市場秩序和社會秩序,防止利用算法干擾社會輿論、打壓競爭對手、侵害網民權益等行為?!端惴ㄍ扑]規定》禁止利用“算法推薦服務”傳播法規禁止的信息,實施流量造假、流量劫持、屏蔽信息、過度推薦、操縱榜單或干預信息呈現,以及自我優待、不正當競爭、影響網絡輿論、侵犯他人合法權益的活動。

? ? ? ?(二)算法公平

? ? ? ?“公平公正”被《算法推薦規定》列為算法的基本原則,但何為公平,難免言人人殊,以至于有學者給出了21種不同的公平定義。梳理其不同解釋,大致可分為個體公平和群組公平、過程公平和結果公平四組兩對概念。其中,“個體公平”,意即算法能夠真實、準確地表征個體,不因個人內在或后天的特征而對個人產生任何偏見或偏袒;“群組公平”,意即接受正分類或負分類的人的比例與整個人口統計是相同的,旨在平等地對待所有群體,它要求通過算法而進行的決策結果在受保護群體與非受保護群體之間的比例相等;“過程公平”,意即算法平等對待所有參與者,各方享有平等的機會、條件和權利;“結果公平”,意即算法應當從參與者所擁有份額的相對關系出發,確保有價值事物得到平等分配。基于這一框架,美國對算法公平的規制側重于群組公平、過程公平和結果公平。聯邦貿易委員會(FTC)評估非法歧視的算法時,會查看模型的輸入數據是否包含基于種族的因素或此類因素其他數據(如人口普查區),以防范基于種族、膚色、宗教、國籍、性別、婚姻、年齡而產生的群體歧視;同時,FTC也會審查算法的輸出(如消費者的信貸利率),以確定模型是否對受保護群體產生不良影響。與之類似,英國ICO根據《2010年英國平等法案》(UK Equality Act 2010),通過排除特殊身份特征確保群組平等,通過確保模型預測與事件發生的實際可能性之間的均等校準(calibration)實現過程公平,通過監控受保護群體達致結果公平。

? ? ? ?我國的算法公平有著微妙的不同。首先,其主要體現為“個體公平”。例如,在滴滴公司順風車服務中,司機利用算法對女性乘客添加不良標簽就曾引發社會爭議,為此,《算法推薦規定》明確禁止設置歧視性或偏見性用戶標簽,避免有損個體人格尊嚴。其次,其主要指向了結果公平。面對“大數據殺熟”的聚訟紛紛,《算法推薦規定》禁止基于消費者偏好、交易習慣等特征,在交易價格等交易條件上實行不合理的差別待遇。在經濟學上,因人而異的“價格歧視”是否造成社會總福利損失,目前尚無定論。但對于消費者而言,價格歧視使企業不公平地攫取了不合比例的“消費者剩余”。正如“最后通牒博弈”研究所發現的,盡管不公平的分配依然有利于一方,但對接受者來說,這有悖于人類的差異厭惡偏好和互惠偏好,激發了不公平感。最后,其堅持包容性,針對特定弱勢群體實現群組公平。為了幫助困在系統內的平臺經濟新型勞動者,《算法推薦規定》突破了算法推薦服務的范圍,將“算法決策”類納入其中,規定算法服務提供者向勞動者提供工作調度服務的,應當建立完善平臺訂單分配、報酬構成及支付、工作時間、獎懲等算法,履行勞動者權益保障義務。

? ? ? ?(三)算法向善

? ? ? ?盡管“向善”(Beneficence)價值被有些算法規范文件提及,但其含義卻紛繁蕪雜,諸如提升人類福祉、繁榮、幸福、和平、創新社會、生態環境、普遍自由,不一而足。總體而言,“向善” 蘊含著人與自然環境和所處社會關系中各種需要得到滿足的正向價值。2021年9月發布的中國《新一代人工智能倫理規范》將“增進人類福祉”列為首要原則,提出遵循人類共同價值觀,遵守國家或地區倫理道德。《數據安全法》第28條針對“數據新技術研究開發”,增設“有利于促進經濟社會發展,增進人民福祉”的特別規定。在此基礎上,算法新規將“向善”倫理注入其中,成為中國的算法向善原則,其具體表現為:

? ? ? ?其一,算法為內容服務。算法服務提供者應堅持正確政治方向、輿論導向、價值取向,優化算法機制,提高正能量傳播的精準性和有效性。與之前“不作惡”(違法、不良信息管控)消極義務相比,算法向給算法服務提供者善苛加了一系列積極義務,例如在首頁首屏、熱搜、精選、榜單類、彈窗等重點環節積極呈現符合主流價值導向的信息內容,優化檢索、排序、選擇、推送、展示等規則的透明度,避免個性化信息推送導致的“信息繭房”。其二,算法為未成年人服務。算法服務提供者應通過開發適合未成年人使用的模式、提供適合未成年人特點的服務等方式,便利未成年人獲取有益身心健康的信息內容,不得推送可能引發未成年人模仿不安全行為和違反社會公德行為、誘導未成年人不良嗜好等可能影響未成年人身心健康的信息內容,不得誘導未成年人沉迷網絡。其三,算法為良好生活方式服務。算法服務提供者應定期審核、評估、驗證算法機制機理、模型、數據和應用結果,不得設置誘導用戶沉迷或高額消費的算法模型。其四,為落實上述要求,亟待建立算法倫理審查制度。據此,算法服務提供者可設立一個獨立于現有職能部門,由倫理專家、技術專家、法律專家、公眾代表組成的算法倫理委員會。在對企業或社會可能產生重大影響的算法部署之前,委員會應率先啟動倫理審查,基于“算法向善”的原則,識別、預防、消除相關應用對基本價值觀的背離。通過全面評估算法的敏感用途、偏差和公平、可靠性和安全性、人的注意力和認知、人與算法的互動與協作等內容,將發展與治理思維模式從命令—控制轉向適應性治理。

? ? ? ?三、中國算法規制體系的檢視與完善

? ? ? ?對算法規制形式與實質的刻畫,展現了中國算法規制體系的基本面貌。可毋庸置疑,正如算法應用方興未艾一樣,對其規制也是初步的。為此,我們不妨借箸代籌,就我國算法規制體系的完善略作構想。

? ? ? ?(一)算法發展對算法安全的平衡

? ? ? ?習近平總書記在2016年“全國網絡安全和信息化工作會議”指出:網絡安全是動態的而不是靜態的,相對的而不是絕對的,一定避免不計成本追求絕對安全,那樣不僅會背上沉重負擔,甚至可能顧此失彼。這里的“彼”就是信息化以及更廣泛的社會發展。正因如此,無論是《數據安全法》還是《個人信息保護法》,均秉持安全與發展并重的原則,堅持“數據安全與利用”“個人信息保護與利用”的雙目標。反觀當前的算法規制,算法安全幾乎成為壓倒性任務,忽略了算法發展對人工智能產業等社會經濟裂變的顛覆性作用。盡管《算法治理意見》中提及“大力推進我國算法創新研究工作,保護算法知識產權,強化自研算法的部署和推廣,提升我國算法的核心競爭力”,但這一表述限于“算法技術研究”,而沒有意識到:正如算法規制以算法服務為中心,算法發展同樣依托于生機勃勃的算法應用生態,離開商業化的土壤,算法技術研究如無本之木、無源之水。算法發展對算法安全的再平衡可在如下層面展開:

? ? ? ?一方面,規制主體的協同治理。算法規制兼具社會性規制和經濟性規制的混合性質。其中,算法安全規制更像前者,主張規制基于立法授權和寬泛的法律原則,保護經濟社會中的公民和弱勢群體,維護公共利益,實現善治;算法發展規制更像后者,主張規制基于可預期的法律規則,通過信息工具和市場干預,推動私人之間合作共贏,實現效率最優。為了同時進行這兩種規制,美國將其交由負責消費者保護和市場秩序監管的聯邦貿易委員會(FTC),歐盟《人工智能法案》亦將其交由成員國多元化的市場監督機構。相形之下,國家網信辦的發展歷程與職能定位清楚地表明,其主要是一個社會規制機構,無力也無意愿準確評估和審慎判斷規制措施的經濟后果。其在算法規制中的主導性,難免使之過分倚重信息安全,可能戕害算法發展。鑒于算法所負載的多元規制目的無法割裂,國家網信辦與其他機構應共同進行這一合作事業,由市場監管、工信、科技等經濟性規制機構負責攸關企業經營活動的監管,并在法律文件制定及實施中彼此分工,協同共治。

? ? ? ?另一方面,規制工具的風險進路?!帮L險進路”(risk-based approach)旨在識別和評估被規制活動可能引發的風險,設置與之相適應的保護水平與規則。它所具有的動態性、多層次和可擴展性,減輕了合規成本和行政負擔,成為平衡安全與發展的有力工具。歐盟《人工智能法案》即采取“風險進路”,將人工智能應用區分為不可接受風險、高風險、有限風險以及最小風險四種類型,再以“回應性規制方法”匹配規制措施。與之不同,雖然《算法推薦規定》中“算法分類分級”含有風險進路的意味,但僅在算法備案義務上有所區隔,其他義務均無差異地一體使用,不免規制失焦。當然,算法分級分類無法畢其功于一役,只能在算法場景中逐一開展。就以算法推薦服務為例,首先可分為“新聞內容信息算法推薦”和“產品服務信息算法推薦”,前者關乎政治文化、意識形態,并可能引發認知和表達的極化,宜重點規制;后者系商業廣告,具有經濟合理性和消費者便利性,宜放松規制。其次,在產品服務信息算法推薦中涉及差異化定價,宜在考量定價策略是基于成本還是支付意愿,是否符合行業管理和大眾預期,是否履行告知義務等情形加以審慎規制。最后,在算法推薦產品服務信息后衍生的自動化決策,因其直接影響個體權利義務,應嚴格規制。

? ? ? ?(二)權利公平對算法公平的補充

? ? ? ?黨的十八大報告指出:“逐步建立以權利公平、機會公平、規則公平為主要內容的社會公平保障體系,保證人民平等參與、平等發展權利。”遺憾的是,我國算法公平尚未充分汲取上述公平理念。須知,公平的前提是“所有人都享有無條件受到某種程度保護的權利”?!皺嗬M路”(right-based approach)由此成為算法規制的核心內容之一。權利公平將在如下方面彌補當前算法公平的缺失:

? ? ? ?第一,拓展算法規制的對象。權利公平蘊含著權利普遍化的訴求,權利人不僅是“受保護消費者”(經濟性規制下)或“被服務的國家顧客”(社會性規制下),也是積極伸張權利的具有使命感的公民。如果說“算法社會(Algorithmic Society)”是一個算法制定并落實社會、經濟決策的社會,那么實踐中對個體影響最深的算法莫過于國家機關的自動化行政,如何通過公民權利限制國家算法權力,由此成為算法規制的關鍵問題。以抗疫利器“健康碼”為例,作為個人獲得出行、復工資格的法定證明,國家機關先將評判標準程式化,相對人在線提交信息并申請后,系統自動分配不同顏色標識的二維碼,此可謂“自動化行政”的典型形式。2018年以來,美國紐約市、華盛頓州、加利福尼亞州以及加拿大陸續頒布《算法問責法》《自動化決策指令》,均以“行政機構的算法決策”為規制對象。這與我國將“私營部門的算法推薦”作為規制重心形成了鮮明對比。容易想見,在國家機關自動化行政的過程中,算法偏見、算法黑箱、結果失控的痼疾依然如故,立法者應直面這一重大風險,將算法法規統一適用于國家機關。就此而言,《個人信息保護法》可資參照:其開風氣之先,一體規制私營部門和國家機關,除另有規定外,均履行同等的個人信息保護義務;不僅如此,國家機關還須額外遵循合法行政、程序正當和比例原則等法治國的基本原則。

? ? ? ?第二,增設過程公平規則。如前所述,我國算法公平側重于結果公平,過程公平規則寥寥。可事實上,沒有過程公平,就不可能有結果公平,因為“過程”有著塑造結果的能力。算法的過程公平即個人能夠平等且有意義地參與到算法活動全過程之中,其體現在:(1)決策算法選擇的公平性:算法使用者應說明為何采取算法,并簡要說明優化目標。例如,信用分數場景下,算法服務提供者可說明引進算法有益于準確評估解釋對象的財務狀況,并以更具針對性的方式決定借貸;在國家機關部署自動化決策算法之前,公眾應有權了解、評估和參與其對于自身和社會的影響。(2)算法輸入數據的公平性:如數據特征選擇的個人自主性、數據特征可信度、數據特征的相關性等;(3)在自動化行政的場景下,算法結果的有效性以通知與申辯的履行程序為前提,允許民眾提出質疑,并有權在專業審計人員的協助下審查算法并及時糾錯。

? ? ? ?第三,提升群組公平保障。盡管算法新規已將消費者群體和勞動者群體納入,但對特殊身份群體保護仍屬空白。事實上,基于民族、種族、疾病、殘障、性取向、宗教信仰等形成的錯誤歸類,不僅導致特定個人在單項事務遭受不公,更延續了受拒斥者所在群體的屈從地位。作為真實社會的鏡像,算法在固化顯存社會偏見的同時,還會放大偏見的影響力和范圍,形成系統性歧視?!秱€人信息保護法》已將“特定身份信息”列為“容易導致人格尊嚴侵害的敏感個人信息”,予以特別保護。算法規制可借鑒相應規則,除具有特殊目的、充分必要性和當事人明確同意外,一般性禁止算法處理類似信息,以實現基于身份中立的平等權。

? ? ? ?(三)私人自主對算法向善的調和

? ? ? ?算法向善是我國依法治國和以德治國相結合的重要體現,但在功能分化的現代社會,作為具有不同性質的社會規范,法律和道德的相輔相成必須以保持自身功能獨立為前提。就此而言,算法向善面臨著三重挑戰:其一,道德法律化的挑戰。法律并非自給自足之物,其可以也應當援引道德等法外理由證立其正當性,但從分工來看,法律中的道德一般限于維系社會所必需的“基本道德”,即哈特所言“最低限度的自然法”,另一方面,根據“只有法律才能改變法律”的原理,道德的法律創制首先要遵循普遍性、明確性、不矛盾、穩定性等法律自身“道德”。以此觀之,與“不作惡”原則相比,“向善”代表超越性的道德準則,超出了維系社會生活必要條件之需要,同時,“向上向善”“沉迷”“正能量”等概念高度抽象且難以確定。其二,法律父愛主義的挑戰。所謂“法律父愛主義”,即國家為了增加當事人利益或使其免于傷害的善意考慮,不顧其主觀意志而限制自由的行為?!端惴ㄍ扑]規定》不但對未成年人、消費者、勞動者等“弱而愚的人”示之法律父愛主義,而且進一步延伸到一般公民之上。防范“用戶沉迷或者高額消費”的表述,與個人就無害他人的生活方式之自我決定相沖突。在實體法上,該“自我決定權”已被《憲法》中“個人尊嚴條款”和《民法典》中“一般人格權”所肯認?!巴ㄏ虻鬲z的道路往往是善意鋪就”,不加限制的法律家父主義,將導致“不高尚”的人接受強制教育和懲罰,在壓力之下,人們往往會趨向偽善或加倍放縱。其三,算法超助推(hypernudges)的挑戰。作為一種規制工具,助推(nudge)是一種特殊形式的“選擇架構”,以可預測的方式改變人們行為,而不禁止任何選擇或顯著改變經濟后果。推人向善的算法借助無所不包的大數據和深度學習技術,精確理解個人行為的相關性及其弱點,以非理性、無意識的方式改變個人行為。通過算法的超助推,將個人推向了被操縱的客體地位,缺乏主體性的行善絕非真善。

? ? ? ?面對上述挑戰,亟待“私人自主”來調和,即向算法注入個人尊嚴和“把人當成人”的理念,形成“人化的算法”(Humanized Algorithm)。首先,算法“向善”的正當性來自促進人們相互信任、滿足共同期望和實現社會團結。故此,算法的“善”并非監管者的政治決斷抑或技術專家的智識判斷,而是關乎普羅大眾的價值選擇,當涉及重大倫理問題時,需充分咨詢公眾意見,在最大范圍內達成社會共識。其次,法律應從“何為向善”中適度抽離,而聚焦于由誰、按照何種程序作出決定的問題上,這要求國家退回到程序和組織的元層面,退回到決定權分配和再界定上,以促使分散的社會關系實現“受規整的自治”(regulated autonomy)。為此,法律應盡量減少“實體權利義務”模式,而是通過對具體場景中倫理決策的議程設定,為個人、技術團體、行業協會、私營部門等構建倫理商談的正當秩序。最后,在規則適用上,“算法向善”不能作為行政行為、司法裁判和算法服務提供者合規的直接依據,而應經由法律解釋及漏洞補充發揮作用。對此,最高法院《關于深入推進社會主義核心價值觀融入裁判文書釋法說理的指導意見》提供了良好指引:社會倫理融入法律應正確運用文義解釋、體系解釋、目的解釋、歷史解釋的方法,充分說明其在個案中的內在要求和具體語境,推動社會穩定、可持續發展。

? ? ? ?(四)中國算法規制體系的愿景

? ? ? ?算法并非洪水猛獸,事實上,它能夠協助私營部門和公共機構決策,為個人提供更個性化的服務,為教育和科學研究帶來新機遇,在公共安全、醫療衛生、可持續發展等領域大有可為。正因如此,算法規制的目標與其說是遏止邁向算法社會的進程,毋寧是重建國家、社會、民眾對算法的信任。信任既是普遍主義的,也是地方性的。因而,我們不但要借鑒已被各國廣泛接受的原則,也要全面回應本土特有的關切?;诖耍覈梢浴八惴ò踩退惴òl展”為綱,以“人化的算法”為魂,以蘊含權利公平的“算法公平”為體,以“算法透明”為用,采用“基于風險”的規制路徑,在國家網信辦和其他監管機構的分工協作下,實現私營部門和國家機關的一體監管與問責,為未來的智能社會建構穩固的法律之基。

? ? ? ?結 語

? ? ? ?中國的算法規制剛剛開始,如《算法治理意見》所計劃,將利用三年左右時間,制定一系列算法法律文件,逐步建立治理機制健全、監管體系完善、算法生態規范的算法綜合治理格局。在世界范圍內,這都是從未有過的嘗試。在未知領域的探索,往往“道以多歧亡羊”。為此,中國算法規制體系的發展,亦應秉持多方參與的互聯網治理原則,就重大問題集思廣益、權衡利弊、錨定立場,以期“壹引起綱,萬目皆張”,最終鑄就貼合數字經濟發展、回應數字社會關切、維護數字中國利益、彰顯中國智慧的算法規制體系。


(部分內容來源網絡,如有侵權請聯系刪除)
立即申請數據分析/數據治理產品免費試用 我要試用
customer

在線咨詢

在線咨詢

點擊進入在線咨詢