- 產品
- 產品解決方案
- 行業解決方案
- 案例
- 數據資產入表
- 賦能中心
- 伙伴
- 關于
時間:2022-04-16來源:花若憐瀏覽數:141次

隨著全世界在信息傳播、教育工作、日常消費等方面越來越依賴于新興科技,人工智能在我們生活中扮演的角色也愈發重要。經歷了新冠病毒大流行的第二年,人們已經看到人工智能的價值。與此同時,人工智能也迅速暴露出各種風險,引發監管機構的關注與回應。
歐盟和英國: 為人工智能監管鋪平道路
2021年,歐盟繼續采用全面立法的方式規范人工智能在各行業的應用。4月,歐盟委員會發布了一個規范人工智能系統的框架。[1]該法案提出推動人工智能在法律、倫理和技術層面的穩健部署,強調尊重人權和民主價值觀。法案提出監管沙箱、強制性的CE認證標識、全生命周期的算法審計等方案。英國則圍繞人工智能審計實踐、人工智能保險和算法透明度出臺了更多立法,[2]致力于探索一種適當且有效的方法,以提高算法輔助決策的透明度和問責性。
近期,德國提出了世界上首個將政府發布的具體標準納入人工智能生命周期管理框架的指南——人工智能云服務合規標準目錄(AI Cloud Service Compliance Criteria Catalogue,AIC4)[3]。該指南回應了規制人工智能的呼聲,清楚列明了推進穩健和安全人工智能實踐的基本要求。
中國:各部委協作推進人工智能規制
相關智庫報告指出,當前中國人工智能規制主要由幾大部委共同推進,包括網信辦主導的信息內容領域人工智能監管,規制算法推薦帶來的信息繭房、干預信息呈現、網絡沉迷等信息內容風險;工信部主導的一系列人工智能國家戰略和行動方案,以培育壯大產業生態、加快融合規模化落地、平衡創新與治理安全為主要方向;以及科技部側重于倫理準則層面的人工智能治理,推動科技企業建立內部審查委員會,發布《新一代人工智能倫理規范》等。此外,央行、衛健委、人社部在小范圍領域急用先行,出臺相關政策文件,重點解決算法可解釋、算法透明問題。
美國各州等地方層面的行動
相比之下,美國采取了一種分散化的人工智能監管方式。各州和地方政府已經開始向可問責(accountable)和可執行(enforceable)的人工智能監管邁進。在科羅拉多州,州立法機關頒布了參議院第21-169號(SB21-169)立法[4],限制保險公司使用其他消費者數據,確保人工智能歧視行為的可問責性。
與此同時,底特律市和紐約市的地方政府已經開始制定法規,旨在減少算法的偏見和歧視性行為。2021年年初,底特律市議會通過立法,要求該市的監控系統應當具有更高的透明度和可問責性。紐約市議會則通過了美國首部消除職場招聘系統人工智能應用風險的立法。
美國聯邦層面推動部門化人工智能治理
與歐洲相比,2021年美國聯邦立法進展甚微,雖然頗具前瞻性,但基本上不具備強制約束力。正如斯坦福大學《2022年人工智能指數報告》的數據顯示,從2015年至2021年,人工智能領域的美國聯邦立法提案急速增長,從3部增加到130部,但最終實際通過的立法僅占2%。
2021年,美國人工智能國家安全委員會(National Security Commission)和美國政府問責辦公室(Government Accountability Office,GAO)向國會提交最終報告,建議政府采取立法行動,保護政府人工智能開發中涉及的隱私、公民權利和公民自由。本報告強調公眾對人工智能在國家安全、情報界和執法部門的應用缺乏信任,倡導私營部門帶頭推動更值得信賴的人工智能。6月,政府問責辦公室發布了一份重要實踐報告,以確保聯邦機構在人工智能使用中的問責機制。
4月,聯邦貿易委員會(Federal Trade Commission,FTC)發布了關于如何負責任構建人工智能和機器學習系統的指南,希望為人工智能系統的運行設定明確預期,通過全生命周期監控、精簡的審計方法來識別偏見和歧視性結果,以提高公眾對人工智能復雜系統的信任。總體來看,FTC認為現行法律基本能夠應對現有人工智能系統產生的新問題,通過強化問責制和透明度,將有助于提升美國人工智能產業的競爭力。此外,FTC還倡導更加透明和公平的招聘流程,包括對人工智能系統進行控制和設定明確的預期。
在2021年《國防授權法》(National Defense Authorization Act)[5]的框架下,美國商務部要求美國國家科學技術研究所(National Institute of Science and Technology,NIST)為人工智能系統開發一個自愿風險管理框架。在2020年《國家人工智能倡議法》(National AI Initiative Act)[6]的建議下,商務部于9月成立了國家人工智能咨詢委員會(National Artificial Intelligence Advisory Committee, NAIAC)。該委員會就一系列與人工智能相關的問題向總統和其他聯邦機構提供建議,包括提升競爭力、人工智能的技術問題、在工作場所應用帶來的風險問題以及人工智能如何能夠促進社會公正等問題。
2021年7月,美國國家科學技術研究所要求企業和技術專家提供信息(Request for Information, RFI)[7],協助建立人工智能風險管理框架。這一框架匯集大量利益相關者的意見,有助于改善企業使用人工智能的透明度。
2021年9月,食品和藥品管理局(Food and Drug Administration,FDA)發布了“基于人工智能/機器學習的醫療器械軟件(Software as a Medical Device, SaMD)行動計劃” [8],概述了食品和藥品管理局計劃如何監督用于治療、診斷、治愈、減輕或預防疾病的人工智能醫療器械軟件的使用和開發。11月,在與加拿大和英國的合作中,美國食品和藥品管理局對該計劃進行了更新。
2021年10月,平等就業機會委員會( Equal Employment Opportunity Commission,EEOC)發起了一項旨在消解人工智能偏見和促進算法公平的倡議,并計劃在近期編寫框架和規則,提高人工智能在招聘過程中的透明度和公平性。
白宮關注隱私和公民自由
迄今為止,拜登政府在人工智能方面主要專注于消費者隱私保護問題。7月,作為國家人工智能計劃的一部分,白宮開始從企業、學術界和專家那里收集有關如何創建全面人工智能風險管理框架的信息。該框架旨在解決人工智能系統中的信任和透明度擔憂。此外,它將致力于實現更負責和更公平的人工智能。
9月,美歐貿易和技術委員會( the U.S.-EU Trade and Technology Council,TTC)發表了第一份聯合聲明。委員會在聲明中承諾發展“創新、可信、尊重普遍人權和共享民主價值觀的人工智能系統”。為了實現這一目標,歐盟和美國都承諾支持經合組織關于人工智能的建議,以獲得更多可信賴的人工智能以及評估工具。此外,美歐貿易和技術委員會還打算進行一項聯合經濟研究,考察人工智能對勞動力市場未來的影響。
10月,白宮科技政策辦公室擴大了圍繞規范人工智能、保護消費者隱私和安全保障的對話。該辦公室與各行業、學術界和政府機構的專家合作,接受公眾意見書,為創建“人工智能世界的權利法案”(Bill of Rights for an AI-powered world)[9]提供信息。
國會方面: Facebook 的舉報人成為變革的催化劑
10月,Facebook前員工弗朗西斯·豪根(Frances Haugen)接受國會質詢,其中,Facebook利用算法處理數據的風險成為人們關注的焦點。聽證會揭露了Facebook在明知算法引發仇恨言論的情況下,仍然放任損害發生并從中牟利的事實。基于此,國會議員紛紛提出立法提案,希望在平臺算法已經深度融入公眾生活的情況下,賦予公眾更多信息自主權。
新澤西州民主黨眾議員弗蘭克·帕隆(Frank Pallone)提出2021年《對抗惡意算法的正義法案》(Justice Against Malicious Algorithms Act)[10]。在此之前,Facebook曾表示計劃對算法實施新的規制措施,保護兒童免受傷害。該法案建議取消1996年《通信規范法》(Communications Decency Act)[11]第230條對平臺責任的豁免規則,強化平臺在人工智能應用中的責任。
為規范算法在網絡平臺的應用,一個由國會議員組成的兩黨小組在11月再次提出《過濾氣泡透明度法案》(Filter Bubble Transparency Act)[12]。該法案將強制大型平臺向用戶提供關閉不透明算法的選項。
隨著對人工智能風險的認識不斷增加,在未來幾年此類立法可能會繼續存在。立法者希望賦予用戶更多自主權,以更好控制平臺使用用戶數據的范圍和方式。
2022年會發生什么
總體來看,人工智能呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等新特征,黑箱模型導致人類無法理解、難以確定事故責任主體,數據濫用導致隱私泄露、算法偏見,人工智能對就業穩定、社會公平、國際政治經濟格局均帶來重大風險。總體來看,主要有以下痛點難點問題。第一,立法理念問題,需要在效率、公平、安全、自由等基本理念上做出平衡。第二,規制對象問題,包括數據問題(如高質量數據集缺失、數據流通困難)、算法問題(如算法可解釋困難,人類無法理解算法結果,專利保護問題)、平臺監管問題(大平臺享有壟斷地位,創新激勵不足)。第三,應用落地問題,市場及產品準入門檻過高、責任認定機制不清晰,例如智能醫療等部分領域現有的準入規則與新技術、新產品的發展不相匹配,商業化落地明顯遲滯。
2021年,全球在人工智能監管方面取得了長足進步,相比之下,美國聯邦立法進展緩慢。隨著面部識別禁令、人工智能招聘歧視問題規制等呼聲在全球范圍內持續增長,人工智能倫理問題將進一步成為立法制定中的重要議題。2022年,將有越來越多的政府、企業和專家認識到人工智能系統保障措施、風險管理戰略和治理框架的重要性,將更廣泛地關注可解釋人工智能、人工智能風險管理策略以及人工智能系統監測問題。
[1]https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
[2]https://www.gov.uk/government/collections/algorithmic-transparency-standard
[3]AI Cloud Service Compliance Criteria Catalogue,
https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/CloudComputing/AIC4/AI-Cloud-Service-Compliance-Criteria-Catalogue_AIC4.html
[4]SENATE BILL 21-169,
https://leg.colorado.gov/bills/sb21-169
[5]?National Defense Authorization Act,
https://www.congress.gov/bill/116th-congress/house-bill/6395
[6]?National AI Initiative Act,
https://www.congress.gov/bill/116th-congress/house-bill/6216
[7]https://www.nist.gov/news-events/news/2021/07/nist-requests-information-help-develop-ai-risk-management-framework
[8]?Artificial Intelligence/Machine Learning-Based Software as a Medical Device (SaMD) Action Plan,
https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device
[9]?Bill of Rights for an AI-powered world,
https://www.wired.com/story/opinion-bill-of-rights-artificial-intelligence/
[10]Justice Against Malicious Algorithms Act,
https://www.congress.gov/bill/117th-congress/house-bill/5596/text
[11]?Communications Decency Act,
https://en.wikipedia.org/wiki/Communications_Decency_Act
[12]?Filter Bubble Transparency Act,
https://www.congress.gov/bill/116th-congress/senate-bill/2763/text