- 產品
- 產品解決方案
- 行業解決方案
- 案例
- 數據資產入表
- 賦能中心
- 伙伴
- 關于
時間:2022-01-14來源:花落未央瀏覽數:617次
? ? ? 蘇宇
? ? ? 中國人民公安大學副教授、數據法學研究院院長
? ? ? 原文刊載于《法律科學》2021年第一期
? ? ? 作者按:本文于知網首發后,《互聯網信息服務算法推薦管理規定》正式文本公布,本文所探討的相關條款較之《互聯網信息服務算法推薦管理規定(征求意見稿)》經歷了實質性的重要修改:一是優化算法透明度和可解釋性的義務被鼓勵性的要求取代;二是算法解釋請求權的有關規定被主動的說明義務取代。然而,本文所討論的算法透明度和可解釋性問題仍然是算法治理的中心議題之一,相關權利義務也將在未來的算法治理立法中受到密切關注。作者將在其后的講座及文章中,結合算法解釋的技術原理與實踐進展,進一步展開對算法解釋制度的深入探討。
? ? ? 內容提要:算法推薦服務提供者需要履行優化算法可解釋性及透明度的義務。算法可解釋性是算法模型的客觀屬性,算法透明度則是算法運行結果與主觀預期的關系。優化算法可解釋性及透明度的要求包含兩個需要相對區分的義務,需要分別作結構化、層次化的處理,按照初步優化、適度優化、充分優化三個層次,展開為有適用場景和程度變化的一系列具體要求。在具體法制建設中,應當進一步界定可解釋性與算法透明度之概念,明確優化算法可解釋性與算法透明度義務與算法解釋請求權之關系,完善場景化、層次化的優化義務結構,并通過技術標準中的多元化可選規則為優化提供指引。
? ? ? 關鍵詞:算法治理;算法解釋;算法推薦;可解釋性;透明度
? ? ? 算法透明及算法解釋問題在算法治理研究中一直居于中心位置。盡管此方面的技術研究正不斷取得多元化的進展,當法學人面對法律制度中有關算法解釋與算法透明度的實定法規則時,仍往往會發現如何彌合法律規范、技術與業態之間的張力并非易事,甚至頗為棘手。
? ? ? 當前,針對算法推薦服務的監管制度建設正在不斷推進,其中優化算法可解釋性及透明度的要求額外引人注目。《互聯網信息服務算法推薦管理規定(征求意見稿)》(下稱《算法推薦規定(征)》)第十二條規定:“算法推薦服務提供者應當綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響、引發爭議糾紛。”根據這一規定,算法推薦服務提供者負有增強算法透明度及可解釋性的義務。2021年9月,國家互聯網信息辦公室等九部委又制定了《關于加強互聯網信息服務算法綜合治理的指導意見》(下稱《指導意見》),也對“推動算法公開透明”提出了專門的要求。由此,優化算法可解釋性及透明度的要求在政策層面被進一步強化,成為備受業界和社會關注的焦點。
? ? ? 然而,優化算法可解釋性及透明度不僅在技術上頗為復雜,在法律與政策層面亦頗費思量。商務部、科技部2020年的調整并發布了《中國禁止出口限制出口技術目錄》(下稱)《技術目錄》),其中“限制出口部分”新增“基于數據分析的個性化信息推送服務技術”,這表明算法推薦的相關技術已經進入國家的重點保護范圍,一旦外泄將對國家利益引起不利影響,而增強算法透明度則意味著有更大的概率會使受《技術目錄》保護的算法設計被破解。誠然,《技術目錄》所限制的僅僅是技術的出口,但如果此項重要技術未經出口即已全盤泄露,則限制出口的規定也將很大程度上失去實質性意義。既要滿足前者規定的算法透明度及可解釋性義務,又要滿足后者所包含的防止算法設計泄露之取向,實屬頗具難度之挑戰。此外,由于我國大量法律規范規定了商業秘密保護的條款,增強算法透明度及可解釋性的義務與保護企業商業秘密的規范目標之間亦存在張力。不僅如此,優化算法可解釋性及透明度還可能涉及算法安全乃至其背后的數據安全問題。如何平衡多方面的價值保護需求,引人深思。
? ? ? 《算法推薦規定(征)》第十二條中“優化”的對象有二:一是透明度,一是可解釋性,二者不可混為一談。可解釋性部分地關系到算法設計本身,透明度則主要關系到后續的解釋與說明,需要分別闡明其技術基礎。
? ? ? 法學界此前相關研究提及可解釋性者較多,但真正說明何為“可解釋性”者寥寥無幾,并且相關認識失之單薄甚或偏頗。例如,有學者認為算法的解釋性可以分為兩類:“一是算法模型是如何運行的,此謂‘功能解釋’;二是算法行為的事后解釋,即算法模型到底帶來了什么,包含自然語言的解釋、算法模型的可視化并能通過舉例進行解釋。”顯然,此種界定既不全面也不夠精確。要考究“可解釋性”的原始含義,必須充分理解算法解釋的技術原理及實踐,才能深入探索優化可解釋性的路徑與程度問題。
? ? ? 迄今為止,“可解釋性”尚不存在十分精確的共識性定義,學界與實務界通常從相對主觀的角度進行描述。可解釋性一詞的來源有二:一是“可闡釋的機器學習”(Interpretable Machine Learning)中的“interpretable”,二是“可解釋的人工智能”(Explainable Artificial Intelligence)中的“explainable”,后者更為常見。在主流學理認知中,“可解釋性”依賴于“解釋”的概念,而“解釋”是指人類與(機器)決策者之間的一個交互面(interface),同時滿足既是決策者的精確代理(accurate proxy),又是能為人類所理解(comprehensible),可解釋性即具備此種解釋能力。對于何為“理解”,研究者們又引述了由米卡爾斯基(Michalski)對“可理解性”(comprehensibility)的著名定義:“計算機歸納的結果應是指定實體的符號表述,在語義與結構上與人類專家觀察類似實體所可能得出的結果類似。計算機的此種描述應作為單一的‘信息塊’被理解,可以用自然語言直接闡釋,并應以綜合的方式將定性和定量概念聯系起來。”自相關具體研究與行業實踐觀之,此種界定可以作如下解讀:用人類生活世界的若干實體作為變量代替一切計算機生成的中間變量及參數,將機器學習的輸出結果表述為關于這些實體的函數,且保持函數計算結果與機器學習結果的精確對應。當然,這是理想化的“可理解性”狀態,此種函數不僅難以生成,部分情況下還不存在,因此只能“以綜合的方式將定性和定量概念聯系起來”。
? ? ? ?實踐中,有些算法模型理論上不需要解釋,即所謂的“自解釋模型”,比如樸素貝葉斯、線性回歸、決策樹或者其他基于規則的模型,理論上就認為已經滿足了可解釋性要求。這是因為這些模型可以與生活世界的實體對應,被表述為關于這些實體的函數。不能自解釋的模型主要是各種深度學習模型,而實現可解釋性的“綜合的方式”已經比較豐富,主要包括基于規則的解釋、激活值最大化、隱層神經元分析、分離式表征、注意力機制,或者視覺解釋、基于擾動的解釋、基于知識的解釋、因果解釋等。整體上,復雜度不高的深度學習算法已可以實現比較充分的可解釋性。然而,對于GPT-3之類的超大型算法,其可解釋性仍然相當難實現。
? ? ? 算法透明度是指“由算法的設計使用者披露有關算法如何部署、如何工作以及如何使用算法等相關信息,以期由監管部門或第三方進行監管的制度”。較之可解釋性,算法透明度的價值色彩更濃,以至于技術界罕有嘗試對算法透明進行嚴格定義。蓋因此處的“透明”(transparency)本質上是一種“政治技術”(political technology),旨在使(政治過程中的)含混不清之處歷歷可見,算法透明亦傳承了此種意蘊。總體上,算法透明更類似于原則性的提議,學界認識尚不一致,但仍有脈絡可尋。
? ? ? 在技術界,達塔(Anupam Datta)等人對算法透明所建立的量化影響分析(Quantitative Input Influence,簡稱QII)引人矚目。達塔等人界定了有關算法透明的兩類問題:一類是個體透明問題,旨在檢視種族、犯罪史等輸入因素對系統針對個體所作決定的影響;一種是聚合透明問題,旨在根據不同的敏感輸入因素檢視系統決定在不同群體之間產生的差異。在法學界,柯格里安尼斯與雷爾(Cary?Coglianese?& David Lehr)對算法透明的研究頗有代表性。二作者將透明度分為“魚缸型透明”和“析理型透明”(fishbowl transparency and reasoned transparency)兩種,“魚缸型透明”以魚缸為隱喻,指公眾能夠從內部觀察政府活動,能夠獲取工作人員正在做何事的信息,主要解決“是什么”的問題;“析理型透明”則強調政府通過說明理由解釋其為何如此行動的重要性,主要解決“為什么”的問題,二者相關關聯但各有側重。對于算法治理而言,二者均須考慮,但鑒于深度學習的技術特點,主要的挑戰在于析理型透明的實現。這兩種劃分方式所針對的目標——個體效應與聚合效應、“是什么”和“為什么”也正是整個算法透明研究所最為關心的問題。不僅如此,算法透明還存在程度問題,“算法透明度”的表述已經體現了這一點。在國內法學界較具代表性的一篇論文中,汪慶華教授指出:“從一般人能夠理解的算法解釋決策的結果或者解釋算法決策的內在邏輯,從技術人員可以理解的參數再到公布源代碼都可以成為算法透明的具體化實踐”,“法律應基于不同的場景對算法設定差別化的透明度要求”。鑒于“主張算法透明的學者很少把代碼公開作為唯一策略,而是把參數權重和公式的披露,甚至理由解釋、結果告知、影響評估等內容也囊括在內”,算法透明度顯然超越了單純的技術解釋。
? ? ? ?因此,我們可以大致認為,算法透明即要求以一定的方式和程度向用戶或公眾說明自動化決策的內在邏輯,尤其是解釋用戶或公眾所關心的特定因素對算法決策的具體影響。由于商業秘密、算法復雜性和所謂“算法黑箱”的存在,算法透明度并不能總是適合通過披露源代碼的方式實現。要求披露源代碼或公開技術細節程度的算法透明,不僅并無必要,也會抑制企業的創新動力。因此,算法透明度要求往往是通過人為說明或解釋的方式實現的,存在場景、方式和程度的差異,其中隱含了復雜的價值平衡:一方面是用戶及公眾的知情權及與此相關的消費者權益或行政程序法益,另一方面是技術創新、企業活力、知識產權保護甚至國家競爭力等價值,部分價值還未完全被法規范秩序所完全吸納和整合。
? ? ? ?當然,算法透明度可以借助一定的技術機制(“算法解釋器”)得以更充分地實現。在深度學習算法自身可解釋性不加優化的情況下,使用算法解釋器也是一種實現算法透明度的方法,常見的解釋器類型包括決策樹、特征重要性、敏感性分析、原型選擇、激活最大化等,以及部分基于上述方法的可視化解釋器。有些解釋器只能解釋特定的算法模型,有些解釋器的解釋能力則不局限于特定類型的算法,此類解釋器被稱為“不可知解釋器”(Agnostic Explanator)。有些功能較強大的不可知解釋器能夠提供跨模型的透明度報告,例如借助量化影響分析生成算法透明度報告(QII報告)就是一個典型實例。量化影響分析主要是基于干擾的解釋,既包括衡量一個輸入元素對系統決策結果的影響(單體QII),也包括衡量一個輸入元素集合的影響(集合QII)及集合中單個元素的影響(邊際QII)。算法透明度報告能夠顯示個人及群體的各種元素(特性、標簽)對算法決策中的實際影響,從而以人類可理解的方式揭示算法決策是否公平。獲得算法透明度報告的主體不一定了解算法設計的內在邏輯和原理,但能清楚獲知與自身相關的元素對于算法決策產生了何種影響。
? ? ? 由上述原理分析可知,算法可解釋性是算法模型的客觀屬性,即某一算法在技術架構上是否具備了作算法解釋的條件;算法透明度則是算法運行結果與主觀預期的關系,即對某一算法應用所作的解釋說明在多大程度上能夠展現算法決策的內在邏輯以及特定因素在算法中的實際影響力,使用戶對算法運行的原理與結果建立明確的認識與穩定的預期。因此,確定算法可解釋性和算法透明度的時間點也不盡一致。理論上,算法設計完成時,算法的可解釋性程度就已可確定,而此時算法透明度可能仍接近于零,必須經由事后的披露、解釋和說明工作滿足透明度的要求。不僅如此,由于自解釋模型的存在,算法可解釋性與透明度要求的滿足可能出現完全不一致的結果:對于規模較大的自解釋模型,如果模型的復雜性太高,例如決策樹龐大且結構繁復,不披露參數或者決策樹結構的話,即使是專家也比較難理解其運行邏輯,此時就出現了幾乎完全滿足可解釋性要求但幾乎完全不滿足透明度要求的結果。相反,對超大型機器學習算法進行代碼開源,再加上人為的原理說明,或許已經很大程度上滿足了算法透明度要求(公開源代碼是算法透明方面最為激進的主張),但此種情形下算法可解釋性幾乎為零。基于二者的種種差異,在闡釋優化算法透明度及可解釋性要求的規范內涵時,也應有所區別。
? ? ? 《算法推薦規定(征)》第十二條規定的“算法推薦服務提供者應當綜合運用內容去重、打散干預等策略……”規定了優化算法可解釋性及透明度的要求和對象,但卻沒有對這兩種要求進行深入區分,也未言明其技術路線基礎,引發了法律解釋的多種可能性。優化算法可解釋性及透明度的要求在草案編制時或許是出于同一目的,但一旦草案中的條款成為現行有效的法律規定,對其內涵的解讀就有可能產生新的指向。在法律解釋方法上,旨在探尋立法原旨的解釋也僅僅是解釋方法中的一種,如果立法原意不夠清晰,大量潛在的可能解釋就有機會轉變為現實,而只要相關解釋并非全然不合理,法律實踐有可能接納。美國行政法中近三十多年來最為備受關注的案件“雪佛龍案”及由此產生的“雪佛龍兩步法”(Chevron Two-Step)就是一個典型例證。如果我們不糾結和局限于條文的原意,根據前述技術原理分析,顯然此處優化算法可解釋性及透明度的要求包含兩個需要相對區分的義務,其規范內涵有一定差異,潛在影響更可能大相徑庭。
? ? ? 優化算法的可解釋性義務本質上針對的是算法設計。要求算法可解釋性的實質在于保證算法模型的設計符合法律要求,使算法能夠被監管者知悉是否在法律認可的正當范圍內運行。我們可以大致將對深度學習算法的可解釋性要求視作一種規則化變換,即把包含卷積運算和隱層的神經網絡轉換為對輸入元素的處理規則,此種處理規則是條件確定而結果可預測的。如果采用決策樹等自解釋模型,達成技術上的“可解釋性”目標基本上不需要額外工作。當然,優化可解釋性并不要求必須采用自解釋模型,也不需要實際上披露數據或模型,只要能夠提供有效的事后解釋,或者采用可解釋性較強的深度學習算法模型(例如膠囊網絡、激活邏輯推理網絡等),也是對可解釋性的增強。但是,實現算法可解釋性的技術在龐大和復雜的模型面前表現不佳,優化可解釋性的要求對于大型和超大型人工智能算法而言,需要的工作量相當繁重,甚至可能需要將核心算法設計“推倒重來”。不過,由于“優化”是一個類似于不確定法律概念(unbestimmteRechtsbegriff)的術語,優化可解釋性的程度尚可靈活把握。企業可以通過與履行算法透明度義務類似的方式,通過可視化、示例或元素權重排序等不完全精確的方式履行可解釋性義務。
? ? ? 優化算法透明度的義務本質上針對的是用戶預期。要求算法透明度的實質在于確保用戶或公眾能夠一定程度上了解算法運行的原理,并對涉及其權益的算法決策建立合理預期。《指導意見》將“保護網民合理權益”與“促進算法公開透明”緊密聯結,即是一個典型實例。實踐中,盡管算法設計可以預先搭建算法解釋模塊或為算法解釋預留接口,但本質上算法透明度并非來源于算法設計本身,而是來源于運營者對用戶(或公眾等其他主體)的說明和解釋。
? ? ? 與優化算法可解釋性類似,優化算法透明度也存在“優化”的程度問題,這一問題的潛在影響極為復雜。簡單展示算法設計的基本原理和目的,與完全披露源代碼、算法運行流程圖及關鍵參數等內容,對建立不同程度的用戶預期有一定影響,而對企業的影響更有云泥之別。技術上,甚至不必披露完整的代碼或計算過程,只需要披露某些關鍵超參數或算法細節,算法模型就有被外界通過技術方法竊取的可能性。算法模型的破解對于不同企業的影響顯然可能有較大差別。例如,對于主營外賣配送的平臺企業而言,其最根本的競爭力來源有可能是規模、管理和地推業務團隊等,算法起到的更多地是優化匹配、提升效率等作用,即便公開算法模型甚至關鍵超參數,對企業也不會產生致命性影響;但對于基于算法推薦實現個性化內容推送的圖文媒體或視頻平臺,其根本(甚至幾乎全部)的競爭力來源就是算法,這也是為何“基于數據分析的個性化信息推送服務技術”能被列入《技術目錄》的原因。后者的算法一旦被破解、竊取,不僅將使企業面臨生死存亡的考驗,也使算法模型背后的訓練數據面臨被攻擊者通過訓練影子模型(shadow model)等手段竊取的危險,還可能觸及國家進出口管理秩序乃至信息技術產業國際競爭力等重大法益。算法透明度義務的實現程度背后不可避免地涉及消費者權益保護、算法倫理維護與技術出口管制、商業秘密保護、網絡與數據安全等其他規范目標之間的張力,需要加以平衡。
? ? ? 因此,我們在此必須追問算法透明度是“對誰透明”的問題:優化算法透明度義務的過程中,很有可能出現算法已被專業人士完全破解,但普通用戶仍然“一臉茫然”的情況。法律上頻繁使用理性人、善良管理人、謹慎商人等“人格化標準”以確定法律關系的具體內容,算法透明的受眾也必須預設一個人格化標準以確定算法透明的實現程度。顯然,算法透明的受眾以專業理性人為標準將使這一規定的意義大打折扣,算法透明的制度實踐顯然是以對用戶甚至公眾透明為目標。即便考慮到理解最簡單的人工智能算法都需要有一定的知識基礎,此處預設的人格化標準也至少應當是接受平均線以上教育水平的普通理性人。這必然會導致算法可解釋性與算法透明度的隱含目標有別。
? ? ? 申言之,優化算法的可解釋性義務與透明度義務還應當有一重隱含的關鍵區別,二者的法益保護目標也可以由此被有效區分。算法可解釋性本身不要求實際的算法解釋,而只是要求算法考慮各種元素的具體機理能夠為專業人士所清晰認知、能夠通過明確的規則式語法表達,此種狀態不一定能增進普通人對算法的理解,但卻非常有利于專業監管的開展。算法可解釋性已被看作是便利算法模型審計(model audit)的工具,有助于評估算法模型的可靠性。相比之下,算法透明度則更多地面向用戶或公眾,在商業算法領域,其對于知情權、公平交易權及相關其他消費者權益保護方面的作用更為顯著,也因此更受法學界關注。畢竟一般消費者既缺乏理解大型算法的能力,也沒有能力進行逆向工程等操作,如果缺乏算法透明度,其幾乎沒有能力比較算法決策結果的相對有效性和真實性。對此,優化算法透明度的義務與《算法推薦規定(征)》第十五條規定的算法解釋請求權相聯結,共同形成了對用戶權益的一項基礎性保障。因此,優化算法可解釋性與算法透明度的兩種義務其實可以分別指向監管端與用戶端,前者更加強調算法應用受充分監管,滿足風險可控、確保安全等目標,后者更加強調算法應用被充分知情,滿足交易公平、選擇自由等目標。兩種義務在算法推薦服務提供者的義務群中實際上可以起到相互關聯而又各自獨當一面的基礎性作用。
? ? ? 在復雜的價值考量中,“優化”這一概念可以作為比較靈活的“價值平衡器”。需要注意的是,不能從數理科學或工程學(線性或非線性規劃)的意義上理解優化,此處的“優化”顯然更接近日常用語中的“優化”,即一種致力于改善現狀的變化。盡管“優化”具有動態的趨向,但如果相關算法設計及應用已經實現了充分的可解釋性與透明度要求,則也難言再需要“優化”。易言之,這一概念在規范層面上必須作局部的“靜態化”處理,惟有未符合可解釋性與透明度要求的算法設計與應用才需要被“優化”。盡管《互聯網信息服務算法推薦管理規定》不屬于狹義上的“法律”,進而導致“優化”也不能作為嚴格意義上的“不確定法律概念”處理(嚴格意義上的不確定法律概念涉及立法與行政的關系),但我們仍可借助不確定法律概念的技術性分類架構分析這一概念所承擔的特殊角色。行政法上的不確定法律概念存在“經驗概念”、“價值概念”和“傾向概念”的三分法,一旦我們進入此種觀察視野,就會發現一個重要問題:優化算法可解釋性義務中的“優化”在未來可以成為一個經驗概念,因為可解釋性已經越來越可以體現為客觀的指標或特性;優化算法透明度中的“優化”則是一個需要主觀評價的概念(尤其需要由缺乏技術基礎的普通用戶進行評價),隱含著復雜的價值平衡,更主要地屬于價值概念。由此,優化算法可解釋性與算法透明度義務可以分別從客觀的技術架構方向和主觀的價值平衡方向展開。
? ? ? 算法解釋不僅是構建算法規制框架的關鍵節點,也是避免算法決策恣意武斷、有效約束算法決策的前提;算法透明則仍然是對算法風險的法律回應中最直接、有效和恰當的方式。優化算法可解釋性及透明度義務在算法推薦服務管理中亦將發揮基礎性的作用,是實施下稱《算法推薦規定(征)》第六、第八、第十、第十四、第十五、第十八條等大量其他規定的基礎。二者可以分別作結構化、層次化的處理,展開為有適用場景和程度變化的一系列具體要求。
? ? ? 算法的“可解釋性”存在程度上的區別,業界對于某些超大型機器學習算法只能初步提供寬泛的規則化表述;而許多中小型的深度學習程序已經可以被充分解釋。因此,我們不妨將優化算法可解釋性義務中的“優化”大致劃分為初步優化、適度優化和充分優化三個層次,三個層次的可解釋性分別對應低精度的規則化變換能力、高精度的規則化變換能力和幾乎完全精確的規則化變換能力,此種能力既可以伴隨算法設計形成,也可以通過提供解釋技術的方式事后補充。三個層次的適用對象、耗費成本及優化難度存在巨大差異,強求企業為滿足算法可解釋性要求一刀切地“推倒重來”,將可能違反規制的合比例性要求,對企業和技術創新造成難以預料的重大負面影響。
? ? ? 現實中,已有的算法標準在可解釋性要求方面已經開始針對不同業務和場景進行區分。例如,人工智能領域備受關注的行業標準《人工智能算法金融應用評價規范》(JR/T 0221—2021)在第7部分“可解釋性評價”中以復合性的框架對可解釋性提出了全面要求,此種要求區分資金類場景和非資金類場景,前者需要遵守的要求遠比后者多,特別是在模型無關可解釋性方面,對于部分依賴圖、個體條件期望、累積局部效應等六類算法解釋技術要求中,資金類場景需滿足任意三項要求,而非資金類場景僅需滿足任意一項要求。此種區分與比例原則的精神是相符的,對于算法推薦領域亦有積極的借鑒意義。
? ? ? 由于算法可解釋性義務應當主要指向監管方,優化層次的選擇應當依據監管需求與優化成本的不同,對不同企業承擔的義務作層次化的界分。監管的需求越大、規制負擔越輕,越是應當要求承擔較高層次的優化義務。根據《算法推薦規定(征)》中體現的全面加強監管之取向,監管需求在決定優化義務程度時處于主導地位。如果涉及公共議題設置和公共輿論導向(如主要平臺搜索熱榜話題的設置與排列)或公民生命權等重要法益(如醫療類商業廣告的算法推薦),監管需求處于絕對優位的情況下,即可考慮設置最高層次的優化算法可解釋性義務。這不僅對于監管方而言是一種便利,對于互聯網企業的業務合規和風險防控也具有基礎性的意義。如果監管需求一般而規制成本高昂,則承擔初步優化義務即可。例如,在《算法推薦規定(征)》第二條所列舉的算法推薦服務中,對于普通商品(不涉及重要法益保護及高消費問題)的“個性化推送類、排序精選類”算法推薦服務,或者對于棋類游戲的著法推薦,企業就沒有必要實現較高程度的算法可解釋性。不過,即便是初步優化,算法可解釋性也存在必須達到的底線,即能顯著提升專業人士對算法運行過程的理解,使之比較便利地實現法律所關心的特定因素的局部解釋。
此外,制度設計上應當既能保證監管部門準確審查算法推薦服務提供者是否進行了一定程度的優化,又要防止監管部門的個別工作人員利用職權從優化可解釋性的算法設計中破解和竊取相關模型、超參數甚至原始數據。自技術層面觀之,實現算法解釋并不必然要求打開“算法黑箱”,為防止監管風險,如非確實需要在充分優化層次上檢視整個算法的全部運行機理,可以不必要求打開黑箱式的全局解釋。
? ? ? 優化算法透明度義務的結構化展開涉及復雜的價值平衡,并且主要面向用戶進行解釋,這是更為棘手的挑戰。優化算法透明度義務中的“優化”也可以從優化效果層面大致劃分為初步優化、適度優化和充分優化三個層次,分別對應展示主要技術原理及基本邏輯、提供精確的主要局部元素影響分析或包含一定取值區間的全局元素影響分析、提供完整而精確的全局輸入影響分析等三個目標。當然,如果提供其他形式的算法解釋能夠實現同等效果,也可被認為是履行了算法透明度義務。
? ? ? 使優化算法透明度義務止于初步優化的因素主要包括知識產權保護、惡意競爭風險、進出口秩序管理及技術上的可行性。現實中,對基于大型或超大型深度學習算法且以此為企業核心競爭力的算法應用而言,大幅度優化算法透明度的風險和成本都顯而易見;如果企業所應用的算法被明確列入《技術目錄》,選擇初步優化就有更充分的理由。對于“基于數據分析的個性化信息推送服務技術”的算法而言,較高的算法透明度還有可能造成泄露個人信息的風險。如果基于優化算法可解釋性已足以使相關推薦算法受到有效監管,并且用戶在其權益面臨重大不利影響時能夠有效行使算法解釋請求權,設置過高的優化算法透明度義務,就容易違反比例原則中必要性原則,形成過度規制。當然,算法透明度的初步優化亦有必要設置一定的底線,即能使受到一定教育程度的非專業用戶能夠理解算法推薦服務對其產生的大致影響,進而避免由于對算法推薦的完全無知而產生不必要的爭議或糾紛。
? ? ? 如果不存在上述重要原因的阻卻效果,適度優化應當是大部分基于機器學習的算法推薦服務提供者所面對的一般要求。因為優化算法透明度主要是面向用戶,適度優化的程度設置應當與用戶權益保障的實際需求及用戶群體的主要特點相匹配。在此種意義上,適度優化應當采取實用主義解釋理論的立場,即“解釋的優劣在于是否滿足接受解釋者的興趣,它是心理學的和場景論的”。因此,適度優化算法透明度的方法可以選擇可視化、交互界面、示例解釋等“用戶友好”而又能減輕知識產權侵權風險的進路。這些“用戶友好”的算法解釋進路需要對模型進行大幅度的精煉和概括,如可視化方法往往包含降維技術以達成人類可理解(闡釋)的簡單可視化結果。大幅度的降維必然伴隨著精度的丟失乃至預測準確度的下降,但只要足以使用戶能夠基本了解算法運行機理和作出大致準確的預判,即可通過相關參數和計算過程的不斷調節,在兼顧保障用戶權益及保護算法設計和企業競爭力等方面尋求最優平衡。
? ? ? 如果算法透明度對于用戶重大權益保障(如重疾診治及車輛導航方面的算法推薦)而言至關重要,算法推薦服務提供者應當承擔充分優化之義務。所謂“充分”,就是不僅需要使用戶知曉相關算法的基本原理和運行邏輯,還應當使用戶能夠較為準確地理解每一個輸入元素(或每一項初始特征)對算法決策結果的影響,相當于可以生成針對任意輸入元素或特定元素組合的量化影響分析報告。如果輸入項為圖像、聲音、視頻、行為(如操作習慣)等,算法推薦服務提供者應當構建人類能夠理解的輸入元素,并對此提供細顆粒度的量化影響分析或其他相當程度的算法解釋。
? ? ? 對算法透明度的充分優化并不必然意味著算法模型及其關鍵超參數被破解。在未來,隨著算法設計的不斷完善,對于大型和超大型算法,有望發現兼容充分的算法透明度和較強的技術秘密保護能力的方案。盡管兩全其美的具體技術路線仍有待進一步的技術研究和實踐檢驗,如果能夠形成可靠的低成本實現方案,則立法也可要求承擔更充分的優化義務。
? ? ? 我國在算法治理的制度層面正日益重視可解釋性及透明度義務。盡管此種要求尚未轉化為正式的法律規范,但由此可以預見的是,未來我國立法中對算法可解釋性及透明度將進一步提出強有力的要求。盡管算法可解釋性及透明度的價值已經獲得多國立法者的廣泛共識,國外立法已經出現相關重要規定(如歐盟《數字服務法》第24條及第30條關于在線廣告透明度的要求),但各國對這一問題的理論研究與制度建設均處于探索前行狀態,實際上缺乏成熟而普適的制度設計可資借鑒。我國算法推薦服務產業在世界范圍內獨具特色,正在形成的算法治理主體結構及制度架構更是獨樹一幟。由此,優化算法可解釋性及透明度義務方面的制度設計,完全可以根據國內算法治理制度架構與現實需求,形成算法解釋的“中國方案”。
? ? ? 由于業界對可解釋性與算法透明度的認識尚較模糊,立法應進一步明確界定其概念內涵。對兩個概念進行界定的具體形式,可以采取類似于《個人信息保護法》在附則中對“去識別性”及“匿名性”進行專門解釋的方案,以單獨的條或款分別說明算法可解釋性與算法透明度的內涵。在此基礎上,《算法推薦規定(征)》第十二條的規定可以拆分為兩款,對兩種義務分別加以規定,基于不同技術原理,有針對性地充分發揮算法可解釋性及算法透明度作為治理工具的不同作用。對概念的充分展開有賴于優化算法可解釋性與算法透明度義務的具體內容。首先,相關義務的內容表述應當分別明確優化算法可解釋性與算法透明度義務主要指向的對象,優化可解釋性的義務履行對象中主要指向監管方和評估方,優化透明度的義務履行對象主要指向用戶。其次,優化義務的核心內容應得到體現。優化可解釋性義務體現為增進規則化變換的精確性,而優化算法透明度義務體現為具備一定教育程度的普通用戶對算法運行原理的了解程度。因此,在法律規范有關兩種義務的具體表述中,優化可解釋性義務可進一步明確,要求算法推薦服務提供者通過比較簡潔的規則盡可能準確地預測算法運行結果;優化透明度義務也可作進一步闡釋,要求盡可能使用戶了解算法運行原理,尤其是了解影響算法推薦結果的因素及其重要性程度(或影響力程度)。最后,界定兩個概念的技術細節可由技術標準承載。
? ? ? ?《算法推薦規定(征)》第十五條第三款規定了用戶的算法解釋請求權及其他相關請求權,其中的“說明”可以被理解為算法解釋。在算法推薦服務提供者負有優化算法可解釋性與算法透明度義務的前提下,用戶基于對其權益影響的主觀判斷即可發動算法解釋請求權,這似乎對于算法推薦服務提供者可能產生相當大的負擔;不過,由于“說明”的程度并未被限定,算法解釋的形式和程度均較為靈活,又使得履行此種義務具有現實可行性。本款的算法解釋義務屬于面向單個用戶、被動承擔的義務,場景性和針對性更為明顯,如果優化算法透明度義務的結果尚不足以解釋用戶認為其權益受重大影響之疑惑,理論上就存在優化算法透明度義務與算法解釋義務分置之必要性。然而,這意味著此種情形下提供算法解釋的程度必然超過同一主體承擔算法透明度義務的程度,鑒于后者本身就是復雜價值平衡的結果,進一步提升解釋程度是否會引發重要商業秘密被破解等較大風險,值得斟酌。較為合理的一種折中方式,是針對特定用戶的合理訴求,提供個性化的替代性解釋方案,或者針對原有的算法透明度實現方案進行針對性的二次解釋,即“對算法解釋的解釋”,以促使個別用戶能夠真正理解算法透明度報告等已有的解釋。
? ? ? 如前所述,優化算法可解釋性與算法透明度義務具有層次性,層次的具體確定取決于業務場景,而“場景”的實質是不同的法益保護需求。通常情況下,優化義務均應以適度優化為通常情形下的默認水平,初步優化與充分優化均作為特殊情況下的例外。未來立法可以列舉若干與算法推薦相關的重要法益保護目標,例如在限制透明度一端包括涉及進出口限制的技術秘密、知識產權、算法安全、競爭秩序等,在支持透明度一端包括公民的平等權、青少年身心健康、關系公民生命權與健康權事項的知情權、公共安全風險等,通過判斷是否涉及相關法益目標具體決定優化義務層次的升降。
不僅如此,允許企業根據具體場景采取多元化手段實現算法可解釋性及透明度亦為必要。部分算法解釋方法實現簡單但適用場景相當有限,部分算法解釋方法實現復雜但泛化能力較強,此外部分算法解釋方法可以廣泛適用但會有所側重,例如基于量化影響分析的算法透明度報告明顯所保護的主要法益目標就是公平權(反歧視),這就導致優化方案取決于具體場景的需求。另外,算法問責的建議大都聚焦于優化算法透明度和可解釋性的前提,尤其是算法透明度通常被認為是促進算法問責的機制,不同問責需求下的算法解釋方案也應有所區別。因此,逐一探尋各種典型場景下算法可解釋性與透明度的實現路徑是有必要的,法律規范可以規定多元化、開放性的基本取向,具體實現方式可以由國家標準和行業標準進行探索。
? ? ? 算法可解釋性與透明度的具體實現包含一定技術含量,不宜全由法律規范徑行規定,此時就需要技術標準發揮積極作用。現實中的技術標準可以起到復雜的利益平衡作用,進而在行政審判等法律實踐活動中發揮規范效應。法律規范可以為優化義務設定層次,優化的具體方案和狀態可以由技術標準具體確定。既然優化可解釋性義務體現為增進規則化變換的精確性,而增強算法透明度義務體現為具備一定教育程度的普通用戶對算法運行原理的了解程度,這兩方面都可以基于量化的標準檢驗或評估。
? ? ? 不過,技術標準的制定過程可能是一個各方利益交織的博弈過程,某一項技術上升為標準可能對其他競爭者和消費者產生“鎖入”(locked-in)風險。鑒于算法可解釋性與透明度實現路徑的場景化、多元化需求,技術標準不宜統一規定具體實現路線,而可以通過類似于《人工智能算法金融應用評價規范》的設計,提供廣泛覆蓋現有技術路線的可選規則。對于開展算法推薦服務的部分中小企業,在算法解釋與透明度的具體實現方案方面可能缺乏技術基礎,相關標準還可以附上技術模板,指引企業實現安全、準確的算法解釋;即便企業自身不能直接實現,Github等知識社區也可以根據相關技術標準提供第三方庫,幫助企業實現優化需求。
? ? ? 對算法推薦服務的監管需要我們深入考慮算法可解釋性與透明度的技術基礎及法理問題。自更抽象的層面觀之,算法解釋在算法治理中的基礎性地位正日益受到學界與實務界的認可,優化算法可解釋性與透明度義務很可能將是未來全球范圍內算法治理的一致要求。深入算法解釋的龐大“迷宮”,在當前和未來的算法治理中已不可避免。
? ? ? 盡管算法推薦服務提供者等市場主體面對此種義務可能顧慮重重,但相關法律規范的表述與闡釋仍可為多方面法益保護目標的平衡提供空間。算法可解釋性與算法透明度的實現路徑多樣,算法解釋需求的場景化差異逐漸凸顯,相關技術研究也正在日益活躍和深入。在此基礎上,相關法律規范與技術標準越是充分體現算法治理的合比例性原則與價值平衡需求,企業就越有充分的機會以可承受的規制負擔實現優化算法可解釋性與透明度之目標。我們期待在綜合平衡各種法益保護需求的基礎上,更加公開、透明而可預測的算法推薦服務能夠提供更積極的社會價值,帶給用戶和公眾更充分的安全、知情、公平與自由。