- 產品
- 產品解決方案
- 行業解決方案
- 案例
- 數據資產入表
- 賦能中心
- 伙伴
- 關于
時間:2022-04-06來源:中國女孩瀏覽數:346次

本文系《認真對待個人信息保護的社會結構:AI科技時代的不對稱性挑戰》一文的正文,注釋從略,全文發表于《環球法律評論》2022年第2期,原文請參見環球法律評論網站:http://www.globallawreview.org,或點擊文末左下角“閱讀原文”。
內容提要:《個人信息保護法》的出臺要有效回應AI科技應用帶來的個體與共同生活的雙重改變。目前學界對人工智能技術沖擊下的社會結構的闡述存在不少缺陷。AI科技的應用具有道德鏡像屬性與社會工具屬性,它構成了社會大挑戰。我們共同生活的架構以及諸多價值理念沒有被明顯消解,但其真實的運作已經被重塑和改變。功利主義式和現實主義式論調認為,類似的結構重塑和改變由于在結果上是好的,所以并沒有什么不對。這種論調既是反事實的,在價值上又無法證立。在隱默且不當的不對稱性結構之下,AI科技構成社會挑戰的關鍵在于:它改變了民主關系中的權力支配狀態,進而使得強制力行使的正當性不足。科技公司與政府擔負著重新宣誓忠實、重新贏取公眾信任的道德與政治義務。AI科技時代的法律實踐需要切實回應社會結構中的不對稱性挑戰,并被這一回應的成效所檢驗。
關鍵詞:個人信息?人工智能?不對稱性?科技權力?公共法理
《個人信息保護法》以極快的速度在中國落地生效,展現出中國對這一問題的理解和重視程度:它不只關乎個體的權益保護,也關乎主要國家之間的政治競爭,還關乎長久經濟利益的占有與分配。這主要是因為信息科技的發展以及經濟、社會交往方式的轉變,使得個人信息在社會結構中的地位與功能發生了徹底的改變。從法學立基的權利視角來看,這些轉變觸發了對人格尊嚴、隱私、意志自治、民主權利、經濟平等、社會進步等價值何以保障和平衡的顧慮與吁求。這些價值訴求殊途同歸,最終均落腳在個人權益之上,追問著在人工智能普遍應用的時代繼續維持、保障和促進個體美好生活的可能性與可行性。對這些追問的成功回答部分取決于我們對上述實踐的實踐語境——AI科技全面塑造了和持續塑造著的社會結構的——準確理解與把握。
本文即是力求對該實踐語境提供一套全面的、具有競爭力的說明。本文認為,人工智能技術在目前以及未來很長的一段時間之內,仍然只是主體關系之中的媒介與手段,其帶來的社會問題的核心并不像很多人呼吁的那樣,是要嚴肅對待和處理人與智能系統之間的關系。問題的核心仍在人際主體之間,是要嚴肅對待和處理由人工智能技術帶來的人際主體間關系——特別是其中的權力支配關系——的變化,嚴肅對待和處理信息新科技更全面地揭露出來的,乃至不對稱地強化了的主體之間、社會之中的結構性難題與道德弊病。本文將具體說明,為何現有對人工智能之挑戰的理解是欠缺現實性的,“人與人工智能的關系”為何不是一個恰當的分析視角。在此基礎上,本文以“被沖擊下的人際關系”為視角,以“不對稱性”為分析概念,呈現當下人工智能最具法理性質的社會挑戰:它改變了民主關系中的權力支配狀態,進而使得強制力行使的正當性不足,科技巨頭與政府需要重新宣誓忠實,重新贏得公眾的信任。
一、AI科技形成挑戰了嗎?
探討AI科技構成了怎樣的挑戰有一個不假思索的前提,即這類信息新科技的確構成了挑戰。質疑這一點似乎既是反直覺的也是反事實的,仿佛沒有太多討論的必要。但這一想法模糊了不同挑戰類型之間的區別,也高估了挑戰一詞的清晰性。
(一)構成挑戰的條件
某項事物要想構成挑戰,邏輯上看,需要具備這樣幾個條件:第一,是它帶來的挑戰,倘若這一挑戰在它出現之前就存在,它的出現只是落在了這一挑戰之中,對原有的問題也無實質的改變,我們便不能將這一挑戰歸諸于它;第二,它帶來的挑戰應當具有相當程度的重要性,倘若它確實帶來了挑戰,但該挑戰實在無足輕重,我們便沒有充足的理由關注它,又或者它的裨益與它的挑戰相比,裨益的重要程度遠大于挑戰,以致該挑戰可以被省略或擱置,那么學理或實踐上重要性程度的降低也會消解在認知澄清上的優先次序;第三,由它帶來或重塑的重要挑戰,要么現有的學理、機制不知如何解決,要么根本無法解決,要么解決的難度非常之高,倘若現有的架構可以有效地或者大體上解決該問題,它也不構成真正的挑戰。
AI技術是否構成挑戰便需要接受這三個方面的審視,本文也大致從這三個方面予以證明:第一,通過對AI科技應用之社會屬性的說明,證明本文所歸納的挑戰與AI科技之間具備直接關聯;第二,通過對AI科技塑造的雙重不對稱性困境的描述,證明它帶來的這一挑戰是重要的;第三,通過對這一挑戰性質的分析,證明這一挑戰無法通過對策性的、階段性的司法或立法應對來解決。在具體展開之前,本文第一部分先明確挑戰的類型,以為第二部分和第三部分的理論推進確立基礎。
(二)兩種類型的挑戰
回到是否構成挑戰的問題上來。一旦開始審視,便會遇到第一個困難,即需要明確,我們所討論的是哪種類型的挑戰?這樣的追問之所以首要,是因為存在著兩種指向不同的挑戰:概念性的與實踐性的,它們的應對方式與解決標準各不相同。
概念性分析本身存在一階與二階兩個不同層面的劃分,本文限定在一階層面。這一層面的概念性挑戰是說,出現了以往的概念無法明確涵蓋的對象,或者它的出現動搖了既存概念觀的有效性或說明力,它在概念層面挑戰了我們的現有認知,并要求我們在學理上重新予以分析、澄清;實踐性挑戰是說,它在實踐場域制造了需要認真面對的道德困境,而我們不知道如何應對,或者就如何行動存在重大分歧,進而需要提出某個競爭性的實踐方案并為之辯護。概念性挑戰譬如說,主張AI科技挑戰了人們對人、自由、尊嚴等基礎概念的固有理解;實踐性挑戰譬如說,認為AI科技制造了新的或更嚴重的社會不公正,侵犯了人們的自由、尊嚴等重要的個體價值。
可以看到,概念性挑戰與實踐性挑戰可能關涉同一個對象,譬如說尊嚴,但即使關涉同一個對象,它們各自仍然構成不同類型的挑戰。有關尊嚴的概念性挑戰指向的是尊嚴的性質,是要重新去界定和回答對于尊嚴的認識和理解;有關尊嚴的實踐性挑戰指向的則是維護或實現尊嚴的價值這件事,對尊嚴的維系和保護面臨困境,需要思考、提出并證成某個應對的實踐方案。
(三)實踐性分析具有獨立的重要性
當意識到存在兩種不同類型的挑戰,我們便需要明確,本文選擇處理的是AI科技的實踐性挑戰。就概念性分析與實踐性分析之間的關系來說,概念性分析具有認知上的優先性,它也是法理學的首要工作。法理學的首要工作是概念性分析,但概念性分析并不是給法學概念下定義。從直覺上看,概念性分析與實踐性分析之間肯定存在著關聯。譬如,如何理解尊嚴通常會對如何維護和實現尊嚴產生影響:如果我們對尊嚴的理解發生了改變——不再將尊嚴與官階和貴族身份相關聯,不再認為勇氣是尊嚴最核心的構成要素,我們對尊嚴的實踐也就相應發生改變——不再認可男性在求婚的競爭中訴諸決斗是對尊嚴的維護。但概念性分析替代不了實踐性分析,也無法直接用做實踐問題的答案,兩類分析具有各自的特殊性與獨立性。混用兩種分析,或者將實踐性分析還原為概念性分析,會減損分析的質量,并落入實踐性分析最常見也最致命的困境:預設了真假參半因而任人打扮的事實性前提。
在明確文章所處理的挑戰類型的基礎上,接下來,我們便可以審視AI科技是否構成了實踐性挑戰這個問題。如前所述,本文力圖證明,從挑戰的來源、挑戰的重要性程度、解決挑戰的困難性這三個維度來看,AI科技確實構成了重大的社會挑戰。但面對這一重大挑戰,學界的諸多認識存在偏頗之處,要么夸大其詞,用想象代替現實;要么顧左右而言他,用次要或邊緣情節代替核心的問題焦點,這些問題都有必要重視與深入分析。
二、一種錯誤的分析視角
對于AI科技造成的挑戰,本文力圖批判的“超越論”“取代論”“解構論”等觀點均共享了一個錯誤的分析視角,這一分析視角之所以錯誤,是因為它的事實性前提是虛假的。盡管建立在虛假事實性前提之上的論證是有效的,但虛假的事實性前提無法排除并非真實的概念空間,進而使得在這些并不真實的概念空間中進行的諸多論證既不是真的可靠,又不是真的具有說服力。
(一)AI科技的特殊性
具體分析對AI科技社會挑戰的錯誤認知之前,需要注意,這些認知共享了一個本文也同意的觀點,那就是AI科技具有特殊性。AI科技最突出的不同,在于它具備了強大的學習能力。這種強大的學習能力主要表現在兩大方面:遠超于人的記憶能力與識別能力,它能夠做到海量的記憶,并識別出對象之間的細微差異。閱讀速度是人類的一億倍,測算分析數據是人類的一萬倍。它不會因為數量過于龐大而像人一樣超出記憶與運算的能力,相反,數量越龐大它的運算便越準確有效;它也不會像人一樣遺忘或混淆讀過的文獻,它的優點恰恰在于可以永不遺忘,可以迅速在海量數據之間發現關聯與區別。
正是因為這樣,AI科技迅速成為了各大研究室和科學家的輔助幫手,并被越來越多地部署在涉及復雜決策、整體決策的工作領域。AI科技的特殊性不僅體現在它的能力方面,而且體現在它作為工具的有效性方面:作為人類的工具,它比傳統的工具好用太多了。它可以在極大程度上增強和拓展我們的能力,幫助我們實現各類認知以及實踐目標——這里雖然不加區分地使用“我們”這樣的概括性指稱,但后文將指出,在AI科技的社會應用中,“我們”作為一個同質化的指稱并不符合事實,它只是一個慣性的、直覺式的、具有迷惑性的錯誤用法。
AI科技是一個多好用的新工具呢?試舉一例加以說明。根據密歇根大學羅杰·托蘭格教授的研究,因為社會期許偏好等原因,人在現實生活中有三分之一的時間在對自己和他人撒謊。在主觀信息的調查中,除非人們跟調查者說真話,否則傳統的研究根本沒有可靠方案來確保研究的真實性,但AI科技的出現改變了這一點。譬如,大數據的記錄、匯聚、梳理和對比,可以非常準確地得知某個人是不是同性戀,是不是種族主義者,任憑他們怎樣口頭否認或故意誤導都無濟于事。目前的AI科技已經可以幫助政府、商業公司、科研工作者觀察、捕捉和記錄人們掩藏在內心的部分真實想法和秘密。
(二)人與人工智能的關系視角
正是因為人工智能呈現出如此強大的能力與功用,展示出一副擁有無限可能的遠大前景,這讓越來越多的人加入不安的隊伍,以懷疑的眼光看待它,不斷反問人與人工智能之間的關系。從不安審視的角度,在工具性的面相之外,它們似乎已經展現出了“理性化”的可能。盡管還需要借助某些外觀的實體(如電腦)存在,人工智能的實質在于它是一種虛擬機器,重要的不是它的形體,而是它能夠做的事情。用博登的話來說:它可以像程序員在寫程序時那樣“思考”問題,它有一套信息處理的機制,仿佛人腦一般。這種信息處理機制再輔以算法與大數據,便能展開一種深度學習,進而獲得某種程度上近似人類的分析與決策能力。倘若如此,那人工智能與人本質上還有什么區別?人工智能的這些特殊性使得認識和把握它帶來的挑戰變得困難和復雜起來,也促使很多討論者選擇了“人與人工智能的關系”這一維度作為討論該科技之挑戰的視角。
人工智能理性化的潛力呈現出一幅伴有強烈危機感的暗淡圖景。現實的世界里,AlphaGo已經戰勝了人類頂尖圍棋選手,人們在借助人工智能提升生活的同時,人工智能也在“觀察”“記錄”和“分析”著它的使用者。我們的生活在不知不覺之間已經逐漸將部分決定權轉移給了人工智能,在不少生活場景中,我們似乎僅僅剩下了名義上的而且往往是一次性的同意授權。更讓人心生恐懼的是,無論同意與否,AI科技幾乎已經無處不在,我們無法真正選擇拒絕,無法逃脫人工智能的凝視,我們幾乎每天赤身裸體地走在它的注視之下,它似乎看得到我們的底褲,看得穿我們的底色,它突破了我們構筑的阻擋他人窺視我們隱私的物理空間。盡管我們在名義上還保有隱私的權利,但在物理空間和權利實踐的維度,隱私權已經在技術上處于有名無實的狀態。這讓習慣了現代文明觀念、重視體面和隱私感的人類憂心忡忡,很難接受。
在AI科技的社會應用高度滲透,支配了越來越多的生活場景之后,人們自然會追問,已然在不少方面超越了我們的AI會最終學會并全面掌握與人一樣的理性能力,進而實現對人類的整體超越嗎?AI會最終取代人類并實現對我們的統治嗎?這樣的疑問帶著非常強烈的“人與人工智能”相互比較的色彩,不安地審視著人與人工智能之間的區別和差距還有多少,懷疑地反問一個會自我學習、自我反思、自我決策的工具還是不是只是人類的工具,如果不只是工具,人與人工智能之間還可以存在哪些可能的相互關系,并視這類問題為AI科技對人類社會提出的最大挑戰。
(三)錯在哪里?
但上述理解和提問方式就回答新科技的社會挑戰來說是錯誤的。主要的原因在于,它建立在對技術的預測而非技術的現實的基礎之上。換言之,它構筑的是一個前瞻式的遠景:倘若人工智能以現在的態勢順利地、高速地發展下去,它有可能達到或突破某個智能狀態,譬如說它最終獲得了“自我設定目標的能力”,然后社會的生態與人類的處境就全部改變了。達到這種發展水平的人工智能,學界稱之為“強人工智能”。人們認為“強人工智能”可能到來,并對到來之后的場景憂心忡忡,這種擔憂是合理的。基于這種擔憂嘗試重新審視、規劃和調整AI科技的發展可能是有裨益的,在該前瞻遠景的刺激之下對人性、理性、尊嚴等概念重新進行分析和論證也是有價值的。但是,一來,人工智能能夠順利、持續、高速發展并最終取得臨界突破,這是一個科學技術層面的事實性判斷,前述擔憂建立在這一事實性判斷的基礎之上,這類考量的質量便也高度依賴這一事實性判斷的可靠程度;二來,就這一前瞻遠景帶來的認知沖擊來說,該沖擊的性質并不屬于AI科技帶來的社會挑戰,通過重新反思上述基本概念也無法算作是在把握和回應它的社會挑戰。
就科技層面的事實來說,目前的人工智能無法理解因果關系,沒有直覺,沒有感性能力,沒有自我意識,無法提出假設,無法自主選擇,離推理、想象等人類具有的高級智能能力還相距甚遠。即使是從遠景視角來看,就考慮AI是否可能經由發展具備自我意識來說,僅僅要達到人腦具備的1000億個神經元數量,按照目前的發展速度,也要至少三十年左右的時間才能讓機器的神經網絡達到人腦的連接數。但“神經元與連接數只是一個必要條件,即使達到或超過人腦的數量也未必產生自我意識”。根據瑞典烏普薩拉大學應用數學系桑普特教授的研究,目前人工智能的發展程度,就其智慧能力來說,最接近的生物是肚子里的細菌。根據現有證據,AI能模擬的智能層級和細菌差不多。
這里需要說明的是,人工智能現實的智慧等級比較初步,不代表其構不成重大社會挑戰,不代表人類社會可以對與細菌處于同一個智力水準的人工智能科技等閑視之。新冠病毒就不是什么智慧病毒,但它造成的全球危機是險峻又直接的,AI科技的出現與應用也是同樣的道理:它不需要多么智慧、多么高級自主,就可以也已經深刻地塑造和改變了整個世界。重新回到人工智能的技術現實上來,尊重科技發展的技術事實,在技術事實的現實與前瞻視角之中,人類還有非常長的一段時間是唯一擁有人類智能的物種,至少就未來五十年來說,強人工智能的出現還不具有現實的可能性。也正因如此,以“人與人工智能的關系”用作分析AI科技之社會挑戰的視角也就被抽掉了堅實的基礎,主要剩下概念思辨的意義。如果做概念分析,欠缺現實基礎并不必然構成分析的缺陷,因為概念分析可以脫離現實的束縛,以預設的條件或某個理想情境作為分析的前提;但在實踐分析中,對社會挑戰的立論與說明高度依賴現實性描述的準確性與可靠程度,虛假的事實性前提會過寬地且不當地拓展理論認知的概念空間,進而損傷相關論證的質量。
與三、五十年間也無法出現的強人工智能所可能造成的挑戰相比,現有的人工智能已經實實在在走進了我們的生活,對個體和共同生活制造著切實的影響。我們的生活正在被人工智能科技塑造著,也由此帶來了重要性程度上絕不應忽視的道德困境,構成了下文將具體展開證明的大挑戰,急迫地要求我們在認知上做出實踐性的分析與回應。之所以這些道德困境構成的挑戰可以被歸諸現有的人工智能技術,是基于該技術內置的社會屬性。下文先完成對其社會屬性的說明,再在此基礎上闡述該技術的社會挑戰是什么。
三、個人數據與AI科技的社會屬性
回到現有“弱人工智能”應用的技術特征,作為一種信息處理、應用的機制,弱人工智能的社會屬性主要體現在兩方面。一是,這種信息處理的機制受制于并反映現實社會的道德境況,AI科技可以說是所在社會的道德鏡像;二是,這種信息處理的機制廣泛應用于社會各個領域,被用作實現各類目的的手段,AI科技可以說是所在社會的工具媒介。
(一)AI科技的道德鏡像屬性
主張AI科技是所在社會的道德鏡像,反映了所在社會的道德境況,該主張立基于以下幾個技術現實。
第一,AI科技作為一種信息處理機制,它的運作建立在收集來的由個人信息匯聚而成的大數據之上,而大數據本身要么不是道德中立的,很多數據是對信息主體價值偏好的收集;要么受到了現有社會分配結構的渲染。
譬如,當美國的警察局將人工智能技術部署于犯罪預測與刑事執法,人工智能的有效運算便需要采集該地區過去的犯罪信息、種族信息、學歷信息、性別信息等等進行數據化,并在分析相關數據的基礎上得出預測性的或決策性的結論。學界已有大量的研究表明,美國的刑事實踐呈現著嚴重的種族不公正的事實結構,這個不公正的執法結構的量化表達便體現為各種數據。換言之,不公正的社會結構會生產不公正的數據,對歷史執法信息的收集所得到的數據本身是有失公正的,帶著種族歧視的偏見,呈現著某一種族、某一社區區域被過度刑事執法的事實。這些事實作為人工智能分析的數據會引導人工智能進一步得出帶有偏見的預測結論。進一步得出帶有偏見結論的人工智能既是對現有不公正的執法結構的反映,又會對現有的結構性不公產生進一步的疊加影響。
以美國佛羅里達州布勞沃德縣的刑事執法實踐為例。自2008年開始,布勞沃德縣采用Northpointe公司開發的算法程式COMPAS對犯罪嫌疑人的人身危險性與再犯可能性進行測評打分,以幫助確定哪些人需要入監收押,哪些人可以保釋。根據朱莉婭·安格溫(Julia Angwin)與杰夫·拉森(Jeff Larson)等學者的研究,Northpointe測評打分的結果很遺憾地呈現了以下的結構:在所有的犯罪嫌疑人當中,被算法標記為高危險性但其實并沒有再犯罪的非洲裔美國人高達44.9%,與此相對,標記為高危險性但不再犯的白人只有23.5%;標記為低危險性卻再次犯罪的白人有47.7%,與此相對,標記為低危險性卻再犯罪的非洲裔美國人只有28%。這樣的算法評測結果顯示,算法更偏好白人,更傾向于做出不利于非裔的結論。可以看到,這樣的算法結果是對布勞沃德縣以往刑事執法中存在的種族不平等問題的呈現,這樣的算法應用也進一步維系和加深著既有的執法不公,并沒有像我們直覺想象的那樣,以為應用算法會提升刑事執法的公正水平。
第二,AI科技作為一種信息處理機制,其處理數據分析的算法本身也具有非中立性。現階段的人工智能既不能自主地理解因果關系,又不能自主地選擇或者預先設定算法所依賴的核心概念與變量。事實上,是程序開發者或數據科學家在對相關的概念進行選擇和界定,這樣的初步設定使得算法無法擺脫程序開發者或擁有者的主觀偏好,隱默地內嵌著社會價值觀點的渲染。在這個議題上,關鍵的問題不是人們常說的程序開發者的控制或人工智能算法黑箱的問題。就程序開發者與數據科學家的控制來說,即使再公正再高超再努力的科學家也無法完全預測或控制算法,這不是說算法很智能,很不好控制,而是說大數據運算本身帶有隨機性與一定程度的不可理解性,再加上科學家無法擺脫自身的主觀偏好,無法根除算法初步設置中的非中立狀態;就算法黑箱的問題來說,人腦的運算也是黑箱的狀態,這一狀態本身不是要求矯正人腦運算的充分理由,算法的完全透明化與要求人腦運算的透明化一樣,幾乎是不可能的。盡管這些并不意味著科學家不需要努力提升和規訓算法,也不意味著算法不需要滿足合理的公開、透明等要求。
對此,一個常見的主張是說,要對算法進行技術上的修正和完善,以及,要加強技術外的規范與約束。本文想指出,技術內外的應對和完善是必要的,但這樣的應對策略存在一個誤區,即以為人工智能不公的問題主要是個技術性、科學性的問題,也主要應當通過技術性、科學性的方法來解決。這種應對策略之所以錯誤,是因為它忽視了人工智能所應用的目標社會其自身的公正狀況對新信息科技應用的決定性影響,忽視了人工智能不公的社會屬性。用朱迪亞·帕爾的話來說:“因果問題無法只依靠數據而得到解答,……解釋數據意味著要對真實的世界是如何運作的進行把握。”可以這樣說,任憑人工智能技術如何高速發展,都無法否認人工智能技術應用的非中立屬性。倘若現有的實踐中,修正得再完善的算法也會帶有特定主體的事實想象與道德信念,就像數據自身帶有的價值立場使得算法處理的數據自身存在好壞之分一樣,算法偏見、算法不公的問題就是人工智能應用中的一個技術事實,呈現和承受著現實世界的道德境況與影響。
(二)AI科技的社會工具屬性
AI科技的社會屬性還體現在它的工具屬性之上。AI科技是社會主體實現各自目的的手段,是不同主體之間交往、博弈的工具,這一判斷作為事實判斷同樣建立在社會實踐的可驗證性之上。
就人工智能被工具化并帶來不確定的社會影響進行列舉:人工智能這件事本身既可以被諸如美國政府拿來用作博弈、限制高新科技企業的事由,又可以被用作重返或推動計劃經濟的手段,還可以被用來實現監控、維穩等社會、政治目標;又能夠被美團用來擠壓市井攤販的經營空間,既可以被部署來抓捕罪犯,又可以用于犯罪,還有人試圖以之提升學生上課的效率與質量,抑或用于識別同性戀或進行心理治療,等等。總之,人工智能可以被用作各種想象得到和想象不到的目的,以媒介的方式影響和塑造著人際交往與共同體的道德境況。需要補充交待的是,盡管人工智能作為工具媒介發揮著功用,但與以往不同的一個情形是:以往倘若產生損害,工具本身是絕緣于責任的,責任歸溯至工具的使用者。但在人工智能應用的情境之中,因為多種原因,作為工具的人工智能本身是否依舊絕緣于責任變得模糊起來,同時還使得工具使用者的責任也模糊起來。這主要是因為,人工智能技術應用具有新穎性與特殊性,既有的法律治理體系有一個利益競爭、規范調整和實踐試錯的不確定期,在此期間,法律責任與人工智能的創造者、支配者以及使用者之間的聯結通常被懸置了起來。
回到人工智能的社會屬性。由上可見,如果人工智能技術的應用本身就會承載和反映現有社會的道德境況,也會影響和塑造個體與共同生活的道德境況,那么人工智能就會帶來可以歸諸于它的挑戰。此外,正如上文已經闡明的,人工智能帶來的這些挑戰不適合采取“人與人工智能的關系”的分析視角去審視和回答人與人工智能之間現有的以及可能的相互關系,而是應該采取“智能系統沖擊下的人際關系維度”的分析視角去審視和回答人工智能如何改變了我們的共同生活,制造了怎樣的實踐困境,我們又應當如何努力做出恰當的應對等等,以此確保人工智能是在促就更加公正的社會和更加自主、美好的個人生活,而不是相反。
四、雙重不對稱性難題
當我們的視角終于回到“人工智能沖擊之下的人際關系”,我們便能直面以下問題:人工智能技術給社會帶來了怎樣的變化,在其中誰得到了裨益,誰受到了損失,這樣的得失之間怎樣的道德困境最為緊要?本文力圖主張,人工智能科技沖擊形成的最重要的道德困境是制造了雙重不對稱性難題,在事實層面改寫了權力正當性的結構,改變了和持續改變著政治社群實質上的共同生活樣態。
(一)多重現實描述的困境
基于回溯視角的特性,這里的重點在于分析AI科技的挑戰而非貢獻。常見的主流認知是肯定AI科技的重要性以及它的積極意義,與慣常的類似理解不同,近年來有重要的研究指出,AI科技的重要性還在于它現實上以及可能帶來的社會風險與危害。人們逐漸意識到,人工智能科技帶來的不一定是高效率,不一定是專業性,也不一定是中立性和公正。以美國斯坦福醫療中心最近的一次公共事故為例。2020年年底,美國的疫情居高不下,美國FDA經過安全專家委員會的表決,批準了輝瑞公司與德國BioNTech公司共同研發的新冠病毒疫苗的緊急使用授權,斯坦福醫療中心首批分到了5000支疫苗。如何分配這5000支疫苗呢?斯坦福醫療中心決定借助算法來實現這一稀缺醫療資源的分配,以期最高效也最公正地實現醫療利益的最大化。但算法給出的分配方案非常令人震驚:5000支疫苗中只分配了7支給一線醫護人員。這迅速引起了強烈的抗議,壓力之下,院方出面道歉并承諾更改分配方案。類似這樣的例證每天都在很多地方出現,使得人們越發以疑惑和審慎的眼光看待AI科技。
AI科技不只是令人疑惑,它也令人擔憂。這種擔憂主要不是擔心人工智能是不是人,有沒有可能超越或統治我們,而是指向人工智能科技應用造成的社會困境與隱患。想要清楚又全面地呈現這些困境與隱患是困難的,因為它涉及到很多層次與面向,彼此之間似乎也沒有統一性可言。
以AI科技中發展迅猛的人臉識別技術應用為例。第一,人臉識別的技術發展非常迅速,其應用門檻也很低,任何能夠安置普通攝像頭的介質都可以用作采集人臉信息的傳感器,理論上以非常低的成本就可以實現對不特定主體人臉生物信息的采集,這樣的科技不僅很難封鎖,而且很容易被濫用;第二,正是因為只需要具備可以成像的傳感器再加上面部識別的軟件和算法就可以遠距離采集和應用人臉信息,這類技術應用具備了非接觸的特質,從而使得對人臉生物信息的采集可以靜默無聲,在技術上不再需要被采集主體的授權或同意,排除了對象的積極參與,如果不明確告知,被采集人甚至不知道臉紋被掃描了的事實;第三,人臉信息的獲取在人工智能時代結合大數據分析,可以做到對臉紋主體的深度掃描與刻畫,提供臉紋就意味著提供了臉紋主體的身份信息、家族信息、性別信息、種族信息、性取向信息、資產信息、醫療信息、心理偏好信息、人格特質信息等等,人臉識別技術的應用可以讓被采集的對象成為透明人,隱私雖然在規范的維度還存在,但在技術上可以被消解。
上述三點對應的每一個問題都很嚴重,都不太容易被AI科技應用帶來的好處所遮蓋。那么,如何能夠更好地歸納和理解這些困境與隱患,以便準確把握挑戰的核心呢?如上文所說,人工智能的問題不可能僅僅通過科學的方式獨自加以解決,因為人工智能被嵌置在社會生活之中,受到社會公正結構與道德境況的影響,因此,重要的便是審視人工智能嵌入社會關系網絡之后怎樣改變了主體間的交往狀態。對此,本文主張,不對稱性(asymmetry)是一個適當的概念工具。
(二)不對稱性作為分析概念
還是以人臉識別技術應用為例,回到上述列舉的問題,我們可以看到:第一,技術的開發者與應用者之間存在著不對稱性。盡管技術的普及使得技術運用的門檻降低,但技術的使用者如政府部門與技術的開發者如科技公司之間的交往結構是不對稱的。這意味著圍繞技術的開發與應用,政府部門與科技公司之間存在著或競爭或合作的關系,但就技術本身來說,是科技公司占據著不對稱性的優勢,與之相對,政府的不對稱優勢在于它的政策與執法功能;第二,技術的應用者與用戶之間也存在著不對稱性。無論人臉識別技術的應用者是科技公司、政府部門還是其他社會主體,技術應用的屬性使得采集者與被采集者之間的權能結構是不對稱的,如上所述,被采集者甚至不知道自己的生物信息被掃描了的事實。此外,就應用者與用戶之間的權益結構關系來說,也是高度不對稱的。一次給出臉紋,在技術上便等于終身給出了個體生物信息。并且,現實生活中同意面部識別大多只是為了便捷的目的,也許在日常能夠直接感知的范圍內確實提升了便捷度,但商業機構與政府部門借此可以獲得的裨益卻是高度不對稱的。個體實際交出去的并脫離自己掌控的綜合信息不僅對應著不成比例的商業收益,而且可能意味著自由度與自主性的減損。由此可見,AI科技引致的諸多困境似乎都可以經由“不對稱性”概念得到妥當的說明。
在進一步闡述AI科技帶來的不對稱困境之前,有必要停下來做幾點概念與事理上的澄清。第一,不對稱性指向的是這樣一種狀態:本來被理解為性質上相同或對等,或者構成一對恰當范疇的兩個對象,事實上處在性質上不同或不對等或者并不當然恰當匹配的狀態。譬如說,責難與贊賞通常被理解為一組對稱概念,但有學者指出,事實上它們是不對稱的,責難在功能上要遠比贊善來得豐富與深刻。同樣,有不少倫理學學者表明,善與惡、好與壞、快樂與痛苦在道德上其實是不對稱的,對它們進行量化衡量和比較在根本上是行不通的。不僅道德領域是這樣,而且政治與法律領域也是這樣,例如,布魯姆教授指出,同樣是歧視,但在美國歧視黑人與歧視白人是不對稱的,它們是性質不同的兩個事件。
第二,不對稱性本身并不必然是不好的、道德上錯的,換言之,不對稱性并不必然是道德性的,具有道德性的不對稱性也不必然就構成道德困境。一般而言,理科生比文科生更會維修電器,更擅長動手,有更強的生存能力,他們之間也可以說是不對稱的,但這種不對稱并不是不道德的。同理,科學家比普通人更會編程,在AI科技的開發與研究上具有很強的不對稱優勢,這本身是不需要也不應當被矯正的。
第三,現代社會的共同生活中既存在著相互性關系,又存在著互惠性關系,但相互性不等于互惠性。在科技公司與用戶所締結的契約關系之中,他們之間存在著道德性的相互關系,但權責、利益的分配卻可能是高度不對稱的,用戶以極大的付出獲得的只是極少的裨益,在政府與公民的相互性關系之中也可能是這樣。在這一維度,人工智能既有可能是朝強勢一方增進不對稱性,也有可能是朝弱勢一方增進不對稱性,還有可能是調和了原有的不對稱性,當然也可能是多種程度多種方向的增進與調和的交織。AI科技帶來的困境與機遇并存,但現有人類社會的不公正結構往往使得AI科技制造困境的現實性要整體上蓋過它帶來積極裨益的可能性。
AI科技引致的不對稱困境究竟應當怎么把握?倘若科技公司的技術優勢構成的不對稱性并不必然屬于需要矯正的道德問題,何以AI科技依舊帶來了社會大挑戰?下文依次從一階行動維度與二階結構維度予以闡述。
(三)一階與二階不對稱性困境
從一階行動的維度來說,相較于普通用戶,各大科技公司與政府部門整體上是占據不對稱優勢的強勢主體。無論是科技公司還是政府部門,都在事實上使得原先的不對稱優勢演變成了需要矯正的道德困境,或者具備了觸發這些道德困境的高度可能性。
第一,對于科技公司來說,首先,認知與科技優勢并不必然是負道德性的,但倘若科技公司將這些不對稱的技術優勢用在與普通用戶形成的各類相互性關系之中,就可能借助不對稱的優勢謀取超額利潤,或者利用技術上的能力突破用戶在規范上的隱私權、知情權、決定權等基本權利,若如此,技術上的不對稱性便不當地介入科技公司與用戶之間的關系,演變成需要糾正的道德困境。其次,高科技公司主導的AI科技迅猛發展,使得很多商業公司的運作越來越人工智能化,不僅商業行為而且整個社會的消費行為與生活方式也越來越人工智能化,在某種宏觀視野下,可以說,是高科技公司在決定、塑造和培養著我們的交往方式與生活選項,強化著我們對新信息科技的依賴。基于AI科技的特性,這種塑造是大規模的、精準的和隱默的,往往體現的是高科技公司的商業邏輯與利益意志,整個框架是基于便利于它們行動和利益最大化的目標設置的。
第二,對于政府部門來說,整體上AI科技的迅猛發展不成比例地提升了政府的認知能力、管控能力,使得權力的觸角無遠弗屆,這一發展本身便構成并加重了公共生活中不對稱的道德困境。
首先,當下以及未來公共服務的提供和保障都需要公民向政府這一最大的公共服務提供者持續地提供自身的信息數據,并保持這些信息數據的更新。即使在公民不感知的情況下這一切也在有序地推進,這讓政府具備了在技術上實現對公民進行全方位了解和監控的可能,并借此獲得更為強盛的政治權力。政府很難抵制這種讓權力“全知全能”化的誘惑,美國政府開發和部署“棱鏡計劃”以及“上游收集計劃”就是一個例證。
其次,借助信息新科技,政府已經可以做到強力貫徹執行法律與政策,往往也有動力使用“AI科技+刑法”的組合去治理社會。不像從前,如今一點小錯都有可能受到嚴懲,本來的民事案件、行政案件都可能刑事化,現代社會整體治理結構的泛刑罰化是人工智能時代高效、便捷生活的另一個面向。但法律不應當也不可以以強制的方式貫徹到底,法律之治的一個居于核心地位的典型特征就是它的“自我應用性”:絕大多數法律不需要觸發保障機制就被絕大多數民眾自覺遵守了。這是因為,人們是具備實踐理性能力因而具有尊嚴的生命,他們對自己的生活能夠進行自我控制、自我反思,能夠理解法律規范并據此決定自己的行動。借助AI科技將法律落實到底,讓違法違規無所遁形,則會與法律之治的這一典型特征相沖突。這也是為什么即使技術上可行,現實中高度可能,大多數國家也要盡力對借助AI科技武裝刑事執法以治理社會的做法表達謙抑的重要原因。
再次,人工智能提高政府辦事效率這件事并不當然構成優勢,仍有可能加重了共同體的道德困境。一個重要的原因在于,早在人工智能技術成熟之前,現代社會就已經有了許多方法可以讓政府的行動變得快捷又高效,但法律創設的核心指向之一就是刻意降低政府的效率,讓政府的行動慢下來。為政府實現職責目標設立很多“規矩”與“限制”,這是現代社會組織、運作的基本法則。只是,頂著進步的光環,政府已經在很大程度上打破了這一基本法則,使得法治的面向越來越復雜、陌生。
第三,對于普通民眾來說,他們在行動的維度上也陷入了多重的道德困境。首先,普通民眾內部是分化的,不對稱的,不僅與科技公司、政府部門無法并稱“我們”,而且在其內部,簡單的、同構的“我們”也不存在。他們中的大部分人逐步順應了新的、被給定的生活框架,還有一部分人則不太跟得上這個新世界。這部分落伍者的處境就比較依賴所在社會原有社會結構與道德境況的良善與穩健程度,依賴于所在社會的糾偏與矯正能力。在普通民眾內部,AI科技應用生產著不對稱的收益與損害分布,但利益受損的群體往往也是消失在社會公眾視野中的或話語能力比較低的那群人。在現代社會,不被知曉與關注,通常就進入不了共同體的議事日程,不公的狀況就容易被忽視、被延續、被惡化。
其次,AI科技帶來了普通民眾之間信息繭房、另類事實、群體抱團、封閉自足、對抗敵視等問題,這些問題集中在普通民眾交往所形成的公共生活之中,將更為強烈地凸顯出社會寬容或社會自由的問題。密爾在《論自由》中開創性地提出了“社會自由”的概念,闡述了公共輿論對個性可能的不當壓制。這過去了不過一百六十多年,AI科技的普及與應用已經讓密爾最大的擔憂變成了社會現實:社會寬容變得越來越困難,個體的一切言行均有跡可查,在政治正確和道德正確的框架之下,觀念表達的豁免性已全面讓位于實質審查,并對應著工作以及社會認可等方面權益的不當剝奪,“社會性死亡”已經以其不確定性、不可預知性、難以補救性等特征參與構筑了當今社會的公共生活。的確,現有的AI科技也可以在這個泛政治正確的時代被部署、應用于維護和促進社會寬容,譬如,美國佛羅里達州圣彼德斯堡的非營利性機構波因特研究所(Poynter Institute)就開發出了PolitiFact網站,應用AI科技進行事實查證,以盡力化解政治人物的虛假言論對普通民眾產生的不當影響,破解群眾斗群眾的社會困境。盡管如此,但普通民眾所處的整體上對其不利的一個結構性社會現實是:暫且不談不斷強化的認知偏好的束縛,他們既缺乏自行鑒別與查證的能力,又缺乏追蹤與更新的時間和精力。
此外,本文還要簡要提及普通民眾面臨的另一層無力單方面化解的技術困境:元數據牢籠。很多人存在一個直覺式的誤解,以為人工智能時代重要的是確保社會交往的內容不被不經允許地觀察、記錄、分析,如我們的購物車里買了哪些東西,在短信和電話里說了什么,某天在哪里見了誰等等。這些確實都在發生,也并非不重要,但同樣重要的是我們的元數據(metadata)被收集、整合、分析與部署的事實。與有實質內容的數據相比,元數據是數據背后的數據,是數據制造的數據,是普通用戶感知不到的有關自身的信息,它是自動制造的,脫離用戶掌控的,只要我們使用智能設備就無時無刻不在生產的。它確實不是實質數據,但假如將實質數據比作肉身,用實質數據畫像可以描繪出我們活生生的模樣,元數據就好比是心智,用元數據可以拼湊和測算出我們的行為模式乃至內部世界,使得整個大數據分析既見樹木又見森林。這是無法不關注但并沒有被廣泛關注的道德困境。
二階結構維度是一階行動維度所處的結構與語境,是一階維度何以呈現如此道德困境的重要原因。如果說,一階行動維度是在新給定的生活框架之下,由新興的科技權力與新科技武裝過的政府權力對社會資源動態分配的話,那么,二階結構維度則是對這些分配社會資源的權力本身的分配。就政府權力的分配而言,原本建立在各種不同形式的代議制基礎之上的權力正當性分配模式并沒有消失,權力的產生與延續還是需要得到普通民眾的認可、同意與確認。只是,在AI科技帶來的更為不對稱的相互性關系之下,新信息科技的運用使得在政治權力的產生與延續上,普通民眾越來越可以被規劃和安排,盡管越來越多的民眾對此越來越不安,但在目前的境況之下也都無能為力。
就高科技公司的新興科技權力來說,并不存在政府權力產生和更替所依賴的那種分配,但無論是科技公司的政策決定所能涉及的規模、產生的影響,還是違背這些政策會導致的不利后果,都與法律的治理非常相似,甚至有過之而無不及。為了阻止澳大利亞政府通過一項待表決的法案,高科技巨頭Meta公司以通知的方式出臺了一項臨時政策,直接暫停了澳大利亞境內所有民眾和媒體在其平臺發布“朋友圈”的權限,最終成功迫使澳大利亞政府擱置法案的進程,并與其重新展開談判。高科技公司憑借信息新科技掌握的這種新興能力,就其實質而言,當然是一種公共權力。但這種“權力”以及它發布的“命令”,形式上看仍然屬于私主體在私人領地發布的自家“決定”,享有既有法律體系安排之中私主體的積極行動權利與消極豁免權利。并且,它發布影響甚廣的政策還不需要像法律那樣滿足“必須事前擬定并公布”“必須清晰”“必須確定”“必須一致”等一系列的法治要求,要求高科技公司像政府那樣確立起“依法行政”的約束框架與規范原則似乎更是無從談起。
正是在這樣的一階行動維度與二階結構維度之中,科技時代的不對稱難題在兩個維度都蔓延開來。要讓民眾相信,盡管政府部門與高科技公司能夠并且事實上在收集、積累、分析他們的元數據與實質數據,但政府與高科技公司不會越過其選擇與決定權,不會侵犯他們的權益,只是,如何確保并讓民眾相信這一點?同樣,如何讓民眾相信,AI科技的大規模部署與應用不會強化社會原有的不公,不會制造新的更穩固的階層固化,不會進一步擴大整個社會的貧富差距,相反,它是矯正并提升社會道德境況的希望?如何讓民眾相信,社會的人工智能化不會減損民眾對個人生活的支配,他們的人生仍然是自主的、自由的、可錯的,個體和社會生活的人工智能化會保障這一點,甚至可以讓人們更加自主、更加體面和有尊嚴地生活?如何讓民眾相信,AI科技介入公共生活不會罔顧個體的意志與責任而強行推行某種集體的利益與意志?
以上所述,即是AI科技社會應用帶來雙重不對稱性困境之后出現的公共信任危機。這種信任危機的解決,有賴于認真處理多個層次、多個面向的多個具體問題,但整個危機的根源還是系于這個結構性的問題:進入人工智能時代之后,在重新塑造的相互性關系之中,民眾是否還是他自己、他的公共生活、他的國家的主人?換言之,社會權力與國家權力是否還是來源于民眾,服務于民眾,受制于民眾?AI科技的介入之所以構成的是社會大挑戰就在于,權力分配或者權力正當性這個根源性問題在新科技不對稱的影響之下陷入了危機之中。AI科技的研發與應用還將繼續推進下去,權力正當性的危機沒有一次性的、統一的解決方案,更不會在短時間內解決。在這個不對稱的、動態的社會困境之中,無論是科技權力還是國家權力,其不對稱的性質,其強制的正當性程度,都取決于應對和處理上述危機的狀況。
五、代結語:法理作為前共識應對
個人信息保護為何如此特殊和重要不是沒有原因的,它恰恰是AI科技沖擊之下重塑社會結構之后的結果。個人信息權益在人工智能時代的保護應該朝著化解而不是堆積雙重不對稱性困境的方向進行。在這樣的實踐語境之中,個人信息權益保護的應有之義,是重申個體在人工智能時代對于自我的倫理生活和公共的道德生活的自主性。共同生活中的雙重不對稱性困境雖然是AI科技介入社會之后帶來的,但它不只是技術問題,無法單靠技術的繼續進步來加以解決,AI科技的應用受制于并呈現著目標社會的正義狀態與道德境況;在高科技公司與政府共同塑造的新的生活框架與分配結構之中,民眾對這一框架結構有著持續且漸進的信任危機,對此,高科技公司與政府擔負著重新宣誓忠實、重新贏得信任的道德與政治義務;不論是科技能力的性質,還是公共責任的大小,抑或巨額利潤的再分配或者數字稅的設置等等,這些都是共同生活之中對高科技公司的重新定位需要回答的基本問題束;AI科技這一社會大挑戰對應著大討論、大變革,在AI科技運作著的新的生活框架之中,沒有任何人能夠真的避免或擺脫不公正的共同體結構所帶來的或內嵌的負面影響,共同體中的每一位成員都有重要的理由去關心和參與這一大變革。
如何應對上述AI科技時代共同體內部的實踐大挑戰呢?本文主張將“法理應對”作為一個概括的實踐方案。法理應對也許是重要的,我們不難列舉出它如何重要的理由,就像我們同樣可以說“立法應對”“政策應對”“倫理應對”“哲學應對”很重要一樣,但這會消解這一實踐方案的嚴肅性與說服力。本文的主張與全文的分析緊扣在一起,直指AI科技構成的社會大挑戰的性質:這是一個法理性質的大挑戰,因此需要法理性的回應方案。
具體一點說,它首先要與作為學術研究的法理區分開來,后者以追求真理為活動的本質,邏輯和真值是它的生命,主張作為學術研究的法理追求共識,就像主張這一活動應當在不同的競爭學說之間和稀泥一樣,這類奇怪的主張是對法理專業本身的否定與消解。與之相對,這里所指的是作為公共實踐的法理,它是實現共同體合理共識的優質方案。其次,之所以人工智能應用形成的是法理挑戰,需要法理方案,有兩大原因:一是要想妥當說明這一實踐挑戰的性質,就必須準確抓取這一社會實踐之中的核心要素,它們至少是個體權利、強制力與合法性等,可以說法理內嵌于這一社會實踐之中;二是這一實踐挑戰所形成的實踐困境具有開放、不確定、無法徹底解決的特征。
也正因如此,作為概括的實踐方案,公共實踐的法理無法也不應當化身為一種大型的決策咨詢活動,致力于給出一次性的對策建議,無論這些對策建議是立法的、政策的還是政治的。它是以對話、競爭、協作等形式,呈現社會現實性與社會道德鏡像的長期活動,是堅持重塑公共信任與公共正義的不懈努力,是守住個體自主性與美好生活的持續試錯。它追求結果意義上的成功,但結果的成功與否并不界定它的性質,也無法決定它的生命。AI科技時代的法律創制與實踐不應當被視為單純的立法、行政與司法問題,更不是單純的利益權衡與爭奪,而是應當被視為大挑戰之大討論的一部分,是政治共同體真誠實踐試錯的一部分,需要持續地在公共法理之中接受檢驗,進行糾錯與革新。
上一篇:數據分析的 8 種思維...