- 產品
- 產品解決方案
- 行業解決方案
- 案例
- 數據資產入表
- 賦能中心
- 伙伴
- 關于
時間:2019-03-06來源:億信華辰瀏覽數:785次

這是人工智能(AI)驅動的自動化和自動機器的時代。自我改進,自我復制,自主智能機器日益普及和迅速擴大的潛力刺激了網絡空間,地球空間和空間(CGS)中人類生態系統的大規模自動化轉變。從各國看,越來越多的趨勢是越來越多地將復雜的決策過程委托給這些快速發展的人工智能系統。從給予假釋到診斷疾病,大學錄取到求職面試,管理交易到授予學分,自動駕駛車輛到自主武器,快速發展的人工智能系統越來越多地被各國的個人和實體采用:政府,行業,組織和學術界(NGIOA)。
個人和集體,這些不斷發展的人工智能系統的承諾和危險正在引起對人類未來的準確性,公平性,透明度,信任,道德,隱私和安全的嚴重關注 - 促使人們對人工智能設計,開發和部署。
雖然對任何顛覆性技術,技術轉型及其相關變化的恐懼導致政府要求以負責任的方式管理新技術并不是什么新鮮事,但調節人工智能等技術是一種完全不同的挑戰。這是因為雖然人工智能可以透明,變革,民主化和易于分配,但它也觸及全球經濟的每個部門,甚至可以將整個人類未來的安全置于危險之中。毫無疑問,人工智能有可能被濫用,或者它可以以不可預測和有害的方式對待人類 - 以至于整個人類文明都可能處于危險之中。
雖然有一些 - 急需 - 專注于道德,隱私和道德在這場辯論中的作用,但同樣重要的安全往往被完全忽視。這給我們帶來了一個重要問題:?道德和隱私?準則是否足以?規范人工智能?我們不僅需要讓AI透明,負責和公平,還需要關注其安全風險。
?
安全風險
從各國看,安全風險在人工智能監管辯論中基本上被忽略了。需要了解的是,任何AI系統:無論是機器人,在單臺計算機上運行的程序,在聯網計算機上運行的程序,還是承載AI的任何其他組件,都會帶來安全風險。
那么,這些安全風險和漏洞是什么?它從最初的設計和開發開始。如果初始設計和開發允許或鼓勵AI根據其暴露和學習改變其目標,那么這些改變可能會根據初始設計的要求而發生。現在,人工智能有一天會自我改進,也會開始改變自己的代碼,并且在某些時候,它也可能會改變硬件,并且可以自我復制。因此,當我們評估所有這些可能的情況時,在某些時候,人類可能會失去對代碼或代碼中嵌入的任何指令的控制。這給我們帶來了一個重要問題:?當人類可能失去對其開發和部署周期的控制時,我們將如何管理AI?
在我們評估多年來源于破壞性和危險技術的安全風險時,每種技術都需要大量的基礎設施投資。這使得監管程序變得相當簡單和容易:只需跟進大量投資,就可以了解誰在構建什么。然而,信息時代和人工智能等技術從根本上動搖了監管原則和控制的基礎。這主要是因為確定人工智能安全風險的人員,地點和內容是不可能的,因為任何人都可以通過合理的當前個人計算機(甚至是智能手機或任何智能設備)和互聯網連接,現在可以為人工的發展做出貢獻。情報項目/倡議。此外,
此外,如果出現任何問題,可能參與任何人工智能系統組件的設計,開發和部署的各國個人和實體的數量龐大,將難以確定整個系統的責任和問責制。
現在,隨著許多人工智能開發項目的開源以及開源機器學習庫數量的增加,任何地方的任何人都可以對這些庫或代碼進行任何修改 - 而且沒有辦法知道誰做出了這些改變,及時對其產生的安全影響。因此,問題是當個人和實體參與任何來自世界任何地方的AI協作項目時,如何從監管角度識別和主動管理安全風險?
?
人們普遍認為,為了開發能夠對人類造成生存威脅的人工智能系統,它需要更大的計算能力,并且易于跟蹤。然而,隨著神經形態芯片的發展,計算能力很快將成為一個非問題 - 消除了大量使用計算能力的跟蹤能力。
另一個問題是誰在評估安全風險?因為無論人工智能的設計,開發或部署階段如何,研究人員/設計人員/開發人員是否具備進行廣泛安全風險評估所需的專業知識?這給我們帶來了一個重要問題:?評估算法或任何AI系統的安全風險需要什么樣的專業知識?有人有資格純粹基于他們在計算機科學,網絡安全或硬件方面的背景來評估這些安全風險 - 或者我們需要具有完全不同技能的人嗎?
承認這一新興現實,風險集團與Subhajit Basu博士就風險綜合提出了關于規范人工智能的亟需討論。
上一篇:善治:良好學校的基礎...
下一篇:合規性連接:身份治理的作用...