
近年來,隨著人工智能技術(shù)的快速發(fā)展,人工智能的治理問題也越來越受到社會(huì)各界的廣泛關(guān)注。人們逐漸意識到,人工智能不僅是一項(xiàng)前沿科技,更是一種深刻影響社會(huì)結(jié)構(gòu)、經(jīng)濟(jì)體系和全球治理格局的系統(tǒng)性力量。因此,如何在推動(dòng)人工智能技術(shù)創(chuàng)新的同時(shí)建立起科學(xué)有效的治理機(jī)制,已成為當(dāng)前技術(shù)政策研究與實(shí)踐的核心議題。2025年4月25日,習(xí)近平總書記在主持中共中央政治局集體學(xué)習(xí)時(shí)指出,人工智能帶來前所未有發(fā)展機(jī)遇,也帶來前所未遇風(fēng)險(xiǎn)挑戰(zhàn)。他強(qiáng)調(diào),要把握人工智能發(fā)展趨勢和規(guī)律,加緊制定完善相關(guān)法律法規(guī)、政策制度、應(yīng)用規(guī)范、倫理準(zhǔn)則,構(gòu)建技術(shù)監(jiān)測、風(fēng)險(xiǎn)預(yù)警、應(yīng)急響應(yīng)體系,確保人工智能安全、可靠、可控。習(xí)近平總書記的重要指示為我們完善人工智能治理提供了重要的努力方向。
然而,在現(xiàn)實(shí)語境中,人工智能治理仍存在一定程度的認(rèn)知誤區(qū)。一種較為典型的觀點(diǎn)認(rèn)為,人工智能的發(fā)展和應(yīng)用仍在初始階段,此時(shí)提出治理問題可能會(huì)過早地對技術(shù)創(chuàng)新形成不必要的束縛。本質(zhì)上說,這樣的看法一方面低估了人工智能技術(shù)給社會(huì)可能帶來的風(fēng)險(xiǎn)和危害,另一方面也低估了治理機(jī)制在引導(dǎo)和塑造技術(shù)發(fā)展過程中可以起到的關(guān)鍵能動(dòng)作用。事實(shí)上,治理并非創(chuàng)新的對立面,而是實(shí)現(xiàn)人工智能健康、有序、可持續(xù)發(fā)展過程中不可或缺的制度性支撐。
此外,人工智能的發(fā)展也無法脫離國際環(huán)境而孤立前行。在全球化語境中,中國在人工智能領(lǐng)域的崛起雖然取得了顯著成效,但在技術(shù)創(chuàng)新與治理模式之間的權(quán)衡上仍面臨諸多挑戰(zhàn)。當(dāng)前國際治理體系高度碎片化,不同國家與地區(qū)在治理理念、制度安排與政策節(jié)奏上差異顯著,協(xié)調(diào)難度不斷上升。在此背景下,如何為中國人工智能的發(fā)展探索出一條契合自身國情、具有全球適應(yīng)力的發(fā)展路徑,已成為亟待解決的重要現(xiàn)實(shí)問題。
在展開對治理問題的討論之前,我們有必要先回顧和理解人工智能技術(shù)正在經(jīng)歷的一場深刻變革。這場變革不僅關(guān)乎技術(shù)層面的更新迭代,更關(guān)乎整個(gè)人工智能生態(tài)系統(tǒng)的重構(gòu)與再定位。
2025年7月,2025中國數(shù)字經(jīng)濟(jì)發(fā)展和治理學(xué)術(shù)年會(huì)在清華大學(xué)成功舉辦。清華大學(xué)蘇世民書院院長、公共管理學(xué)院教授薛瀾發(fā)表題為《全球視野下的人工智能治理——挑戰(zhàn)、機(jī)制與未來路徑》的主旨演講。
一、人工智能技術(shù)生態(tài)的演進(jìn)與變革
當(dāng)前人工智能技術(shù)生態(tài)系統(tǒng)的核心特征,正在由“工具集成”向“平臺統(tǒng)攝”發(fā)生根本轉(zhuǎn)變。在早期,人工智能主要以特定應(yīng)用程序或算法模型的形式存在,具有高度專業(yè)化、碎片化的特征。而近年來,伴隨大模型(Foundation Models)與多模態(tài)架構(gòu)的發(fā)展,人工智能逐漸形成以平臺為中心的生態(tài)格局。以O(shè)pen AI、Anthropic、Google、深度求索、字節(jié)、百度、阿里、智普等企業(yè)開發(fā)的平臺型人工智能體系,不僅整合了算法模型、數(shù)據(jù)資源和計(jì)算能力,而且通過API接口、插件機(jī)制和多邊生態(tài)合作,逐漸形成集研發(fā)、部署、服務(wù)、用戶交互和治理于一體的完整系統(tǒng)。這種生態(tài)結(jié)構(gòu)的重構(gòu),使得人工智能不再是單一的技術(shù)工具,而成為一個(gè)能夠持續(xù)學(xué)習(xí)、適應(yīng)與演化的系統(tǒng)性存在。平臺化帶來了生態(tài)外部性與路徑依賴的風(fēng)險(xiǎn),也對治理提出了前所未有的復(fù)雜要求。
2025年可以被視為人工智能體(AI Agent)發(fā)展的關(guān)鍵節(jié)點(diǎn)。年初,Open AI推出了名為“Operator”的智能體系統(tǒng),標(biāo)志著人工智能從“被動(dòng)響應(yīng)式模型”向“主動(dòng)任務(wù)執(zhí)行系統(tǒng)”的加速轉(zhuǎn)型。這類系統(tǒng)不僅能夠執(zhí)行復(fù)雜任務(wù),還具備調(diào)度其他模型、記憶上下文信息并與用戶持續(xù)交互的能力,具備了一定的“類自主性”。與此同時(shí),國內(nèi)企業(yè)也在積極布局。例如,智譜在智能體技術(shù)路徑上持續(xù)探索,推出了能夠完成多輪交互、任務(wù)拆解與執(zhí)行的自主智能體,形成了從通用模型到垂直智能體的初步生態(tài)鏈。這一趨勢表明,智能體不僅是技術(shù)演進(jìn)的自然延伸,更是平臺間競爭的新賽道。
大模型之間的競爭態(tài)勢也在不斷變化。自2022年以來,針對通用大模型能力的評估框架迅速發(fā)展,包括MMLU(Massive Multitask Language Understanding)、Hella Swag、GSM8K和GAOKAO Bench等在內(nèi)的多項(xiàng)基準(zhǔn)測試被廣泛使用。不同測試標(biāo)準(zhǔn)常導(dǎo)致模型表現(xiàn)排名的變動(dòng),但總體來看,Open AI的GPT系列、Anthropic的Claude以及Google旗下DeepMind的Gemini系列在綜合性能上依然領(lǐng)先,國內(nèi)大模型如GLM、通義千問、百度文心、深度求索等則在特定場景(如中文處理、文檔問答)中表現(xiàn)優(yōu)異。
值得關(guān)注的是,人工智能在人類認(rèn)知領(lǐng)域的進(jìn)展速度令人驚嘆。在數(shù)學(xué)奧林匹克競賽題目測試中,人工智能模型已逐步具備解決復(fù)雜題目的能力,部分模型在解題準(zhǔn)確率上甚至超越了人類參與者的平均水平。這種技術(shù)的躍升,不僅增強(qiáng)了人們對通用人工智能(AGI)可行性的預(yù)期,也加劇了社會(huì)各界在應(yīng)對人工智能發(fā)展時(shí)加強(qiáng)治理的緊迫感。
二、人工智能治理的內(nèi)涵與理論框架
人工智能治理(AI Governance)是一個(gè)多維度、多工具、多主體參與的動(dòng)態(tài)系統(tǒng)性過程。其目的不僅在于防范潛在風(fēng)險(xiǎn),更在于塑造人工智能的發(fā)展方向與應(yīng)用邊界,使技術(shù)的進(jìn)步與社會(huì)價(jià)值相協(xié)調(diào)。治理既包括倫理與原則的制定,也包括政策激勵(lì)與市場規(guī)制,還涉及標(biāo)準(zhǔn)建設(shè)與國際協(xié)調(diào)。可以說,人工智能治理是規(guī)范、引導(dǎo)、協(xié)調(diào)人工智能發(fā)展的制度總和。目前較為通行的人工智能治理框架,通常可以分為三個(gè)層次:
1. 倫理與價(jià)值維度——該維度關(guān)注的是人工智能系統(tǒng)在開發(fā)與應(yīng)用中應(yīng)當(dāng)遵循的基本倫理原則,包括但不限于:
(1)安全性與可控性:確保系統(tǒng)在設(shè)計(jì)上能避免失控風(fēng)險(xiǎn);
(2)透明性與可解釋性:保障用戶了解人工智能系統(tǒng)的運(yùn)作機(jī)制與決策過程;
(3)公平性與非歧視性:防止人工智能在算法訓(xùn)練或部署過程中加劇社會(huì)不公;
(4)責(zé)任可追溯性:明確人工智能決策背后的責(zé)任歸屬。
在這一方面,中國人工智能治理專家委員會(huì)于2019年提出了“負(fù)責(zé)任人工智能”的八項(xiàng)治理準(zhǔn)則。歐盟、OECD、IEEE等國際組織也相繼發(fā)布了多套人工智能倫理框架。例如,OECD于2019年發(fā)布的《人工智能推薦原則》明確提出了五項(xiàng)以價(jià)值為基礎(chǔ)的指導(dǎo)原則,以促進(jìn)“可信人工智能”的發(fā)展與負(fù)責(zé)任治理。
2. 政策支持與市場激勵(lì)維度——治理不僅是限制,更是塑造和激勵(lì)。政府可以通過財(cái)政投入、研發(fā)資助、基礎(chǔ)設(shè)施建設(shè)、人才政策與公共采購等方式,為人工智能創(chuàng)新提供制度土壤。同時(shí),也需要通過反壟斷政策、數(shù)據(jù)共享機(jī)制、中小企業(yè)扶持等手段,維護(hù)技術(shù)創(chuàng)新生態(tài)的多樣性與可持續(xù)性。例如,2017年發(fā)布的中國《新一代人工智能發(fā)展規(guī)劃》提出以“三步走”戰(zhàn)略推動(dòng)人工智能產(chǎn)業(yè)發(fā)展,強(qiáng)調(diào)國家主導(dǎo)與企業(yè)協(xié)同的創(chuàng)新路徑。這是一種典型的政策驅(qū)動(dòng)型治理結(jié)構(gòu),具有較強(qiáng)的系統(tǒng)組織能力與資源整合能力。
3. 規(guī)制與標(biāo)準(zhǔn)維度——規(guī)制是治理的重要組成部分,但不應(yīng)被狹義地等同于“限制”。其內(nèi)涵包括:
(1)法律法規(guī):如《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》《算法推薦管理規(guī)定》等,為人工智能治理提供法理依據(jù)與監(jiān)管框架;
(2)技術(shù)標(biāo)準(zhǔn):包括模型訓(xùn)練規(guī)范、數(shù)據(jù)處理接口標(biāo)準(zhǔn)、安全評估機(jī)制;
(3)責(zé)任機(jī)制:界定平臺方、開發(fā)者、使用者等多方責(zé)任邊界;
(4)合規(guī)評估:建設(shè)風(fēng)險(xiǎn)識別、分級管理、動(dòng)態(tài)評估與退出機(jī)制。
當(dāng)前,歐盟《人工智能法案》(AI Act)已進(jìn)入最終立法階段,其將人工智能系統(tǒng)分為“禁止類”“高風(fēng)險(xiǎn)類”“有限風(fēng)險(xiǎn)類”與“最低風(fēng)險(xiǎn)類”,并據(jù)此提出差異化監(jiān)管要求,成為人工智能規(guī)制分級管理的重要案例。如上所述,人工智能治理既具有多元的目標(biāo)導(dǎo)向,也依賴多樣化的治理工具,涵蓋傳統(tǒng)的行政法規(guī),以及大量的政策措施、自律機(jī)制和技術(shù)手段。多元工具的協(xié)同應(yīng)用,有助于在技術(shù)發(fā)展快速變化的環(huán)境中實(shí)現(xiàn)敏捷治理。
三、人工智能治理的三重功能:風(fēng)險(xiǎn)防控-社會(huì)建構(gòu)-市場塑造
(一) 人工智能的風(fēng)險(xiǎn)防控
現(xiàn)有的人工智能技術(shù)系統(tǒng)由于其復(fù)雜性和不可解釋性,內(nèi)生性地帶來一些潛在的技術(shù)失靈風(fēng)險(xiǎn)。一旦被濫用或用于惡意目的,其危害可能超出技術(shù)范疇,在關(guān)鍵領(lǐng)域引發(fā)局部性損害,甚至演變?yōu)橄到y(tǒng)性風(fēng)險(xiǎn)。因此,理解人工智能風(fēng)險(xiǎn)治理的必要性與緊迫性,需對其潛在風(fēng)險(xiǎn)進(jìn)行系統(tǒng)分類、剖析成因,并找到相應(yīng)的解決辦法。
人工智能風(fēng)險(xiǎn)的分類有很多種,圖靈獎(jiǎng)得主Yoshua Bengio于2025年?duì)款^發(fā)布的《國際人工智能安全報(bào)告》,將人工智能帶來的各種風(fēng)險(xiǎn)劃分為三大類(Bengio et al., 2025):
1. 惡意使用風(fēng)險(xiǎn)(Malicious Use Risks):指人為使用人工智能系統(tǒng)進(jìn)行傷害、操控、欺詐等非法或不道德行為;
2. 技術(shù)失靈風(fēng)險(xiǎn)(Malfunction Risks):即人工智能系統(tǒng)在正常使用情況下由于故障或技術(shù)失靈帶來的不良后果;
3. 系統(tǒng)性風(fēng)險(xiǎn)(Systemic Risks):指人工智能大規(guī)模應(yīng)用后可能引發(fā)的廣泛性負(fù)面社會(huì)影響。
人工智能惡意使用的風(fēng)險(xiǎn)目前已經(jīng)比較常見。2023年,英國某知名公司遭遇一起令人震驚的深度偽造詐騙案件。該公司位于香港的一位員工應(yīng)公司“上級”的邀請參加視頻會(huì)議,并根據(jù)對方指令將約2億港元匯入多個(gè)賬戶。事后調(diào)查發(fā)現(xiàn),除該員工本人外,所有“參會(huì)者”皆為由生成式人工智能所合成的虛擬影像,通過深度偽造(Deepfake)技術(shù)逼真模擬真實(shí)的聲音與面貌。這一事件凸顯了生成式人工智能在欺詐應(yīng)用中的巨大風(fēng)險(xiǎn),傳統(tǒng)的語音、視頻驗(yàn)證機(jī)制在此類情況下幾乎失效。從治理角度看,如何在制度層面防范生成式人工智能被惡意利用,亟需得到更高優(yōu)先級的回應(yīng)。
人工智能技術(shù)失靈比較典型的情況就是所謂“幻覺”(hallucination)的產(chǎn)生,即模型生成與客觀事實(shí)不符,甚至完全虛構(gòu)的信息內(nèi)容。這在很多對準(zhǔn)確性要求很高的應(yīng)用場景來說至關(guān)重要。例如,近年來不少律師事務(wù)所嘗試將GPT等模型用于法律案件梳理與檢索,但結(jié)果并不理想。最著名的案例之一是2023年美國某律師在提交訴狀中引用了數(shù)個(gè)根本不存在的“判例”,經(jīng)查這些判例均由人工智能編造,導(dǎo)致法院當(dāng)庭指責(zé)該律所嚴(yán)重失職。目前包括美國律師協(xié)會(huì)在內(nèi)的多個(gè)行業(yè)協(xié)會(huì)已發(fā)出預(yù)警,要求在法律實(shí)踐中使用人工智能輔助時(shí)必須設(shè)立嚴(yán)格的驗(yàn)證機(jī)制。
人工智能帶來的系統(tǒng)性風(fēng)險(xiǎn)包括對就業(yè)、知識產(chǎn)權(quán)、社會(huì)認(rèn)知等方面的影響。當(dāng)前最受關(guān)注的風(fēng)險(xiǎn)之一,是生成式人工智能與現(xiàn)有版權(quán)保護(hù)機(jī)制之間日益凸顯的沖突。2023年底,《紐約時(shí)報(bào)》起訴Open AI和微軟,指控其在未經(jīng)授權(quán)的情況下將大量新聞內(nèi)容用于大模型訓(xùn)練。這一案件觸及人工智能治理中極為復(fù)雜的議題,包括訓(xùn)練數(shù)據(jù)的知識產(chǎn)權(quán)歸屬問題,“合理使用”邊界如何在訓(xùn)練場景中界定,以及模型生成結(jié)果是否構(gòu)成“衍生作品”等。盡管該案件尚未審結(jié),但已經(jīng)促使多國監(jiān)管機(jī)構(gòu)重新審視人工智能與版權(quán)之間的關(guān)系。
在上述三類風(fēng)險(xiǎn)中,人類社會(huì)面臨的最大潛在風(fēng)險(xiǎn)就是技術(shù)失靈中的最可怕的失控情況,亦即當(dāng)人工智能發(fā)展到通用人工智能(AGI)或超級人工智能(ASI)的階段,人類喪失對其控制權(quán)。早在1950年,人工智能奠基人圖靈就在《Mind》期刊發(fā)表的經(jīng)典論文中提出“child-machine”的構(gòu)想,預(yù)見了人工智能可能具備自我學(xué)習(xí)與自主演化的能力(Turing, 1950)。機(jī)器將通過實(shí)驗(yàn)學(xué)習(xí)不斷優(yōu)化自身,行為結(jié)果并不完全由人類預(yù)設(shè)。今天,圖靈這一預(yù)測似乎正一步步成為現(xiàn)實(shí)。隨著人工智能系統(tǒng)擁有代碼生成、自我優(yōu)化甚至模擬人類行為的能力,其“不可預(yù)測性”日益顯現(xiàn)。牛津大學(xué)Bostrom(2014)提出“價(jià)值鎖定(Value Lock-in)”風(fēng)險(xiǎn),即早期設(shè)計(jì)的不完美目標(biāo)函數(shù)可能在AGI中被永久嵌入,帶來不可逆的災(zāi)難性后果。因此,可控性問題已成為人工智能風(fēng)險(xiǎn)治理領(lǐng)域的最核心問題之一。
由此引發(fā)的一個(gè)根本性治理問題是:當(dāng)人工智能技術(shù)發(fā)展到某一階段,是否應(yīng)該有“暫停”的選項(xiàng)?在生命科學(xué)領(lǐng)域,倫理底線的設(shè)立已較為成熟。例如,人類胚胎編輯、克隆等研究方向已在國際上形成廣泛共識,不少國家設(shè)立了明確禁區(qū)。人工智能是否也應(yīng)設(shè)定類似的“倫理紅線”? 近年來,該問題的緊迫性與爭議性顯著上升。2023年,超過1000位人工智能專家與科技領(lǐng)袖聯(lián)合簽署《暫停大型人工智能實(shí)驗(yàn)公開信》,呼吁對超過GPT-4級別的人工智能系統(tǒng)實(shí)施“自愿性開發(fā)暫停”,以等待社會(huì)共識與治理機(jī)制的建立。這一行動(dòng)雖頗具爭議性且在現(xiàn)實(shí)中難以實(shí)施,但也凸顯出科技界內(nèi)部對于“不可控風(fēng)險(xiǎn)”的現(xiàn)實(shí)焦慮。
(二)人工智能的社會(huì)建構(gòu)
人工智能治理的目的,不僅是“應(yīng)對風(fēng)險(xiǎn)”,更重要的是塑造人工智能的社會(huì)-技術(shù)系統(tǒng)(socio-technical systems)、支撐相應(yīng)的制度架構(gòu)的協(xié)同演化,并最終形成一個(gè)兼具創(chuàng)新性、安全性與公平性的社會(huì)應(yīng)用生態(tài)。正如哈佛大學(xué)肯尼迪政府學(xué)院科學(xué)技術(shù)學(xué)教授Sheila Jasanoff所指出:技術(shù)并非價(jià)值中立的工具,它始終承載著規(guī)范、制度與權(quán)力結(jié)構(gòu),并在社會(huì)實(shí)踐中被再生產(chǎn)與不斷重塑(Jasanoff, 2004)。因此,人工智能治理的意義,絕不僅僅是畫出“禁區(qū)”,更在于鋪設(shè)“通道”和“軌道”。技術(shù)從來不是“拿來即用”的工具。任何人工智能系統(tǒng)的成功部署,必然依賴于其與社會(huì)制度、法律規(guī)制、基礎(chǔ)設(shè)施和文化環(huán)境的深度耦合。這就是“社會(huì)技術(shù)共構(gòu)”的基本邏輯。
一個(gè)典型的例子是公路交通系統(tǒng)。從汽車技術(shù)誕生到廣泛普及,人類社會(huì)配套建設(shè)了道路網(wǎng)絡(luò)、交通信號及交規(guī)體系、駕照制度、保險(xiǎn)機(jī)制、加油與維修網(wǎng)絡(luò)等一系列技術(shù)及社會(huì)運(yùn)行機(jī)制,來保障讓汽車真正成為一種社會(huì)生產(chǎn)與生活系統(tǒng)的組成部分。長遠(yuǎn)來看,人工智能的發(fā)展同樣需要經(jīng)歷一場復(fù)雜的“社會(huì)適配”過程。無論是醫(yī)療、教育,還是政務(wù)領(lǐng)域的人工智能應(yīng)用,其有效落地都依賴于數(shù)據(jù)治理、倫理審查、接口標(biāo)準(zhǔn)、責(zé)任認(rèn)定等制度要素的協(xié)同支撐。這些制度性安排本身,即構(gòu)成了人工智能治理不可或缺的一部分。以醫(yī)療場景為例,即使人工智能系統(tǒng)的診斷準(zhǔn)確率優(yōu)于醫(yī)生,其應(yīng)用仍需滿足如下治理?xiàng)l件:(a)明確的數(shù)據(jù)隱私合規(guī)機(jī)制;(b)醫(yī)療責(zé)任歸屬的法律認(rèn)定;(c)醫(yī)患之間的信息透明;(d)醫(yī)保報(bào)銷政策的對接。雖然在底層算法與模型結(jié)構(gòu)上,人工智能已取得顯著進(jìn)展,但其“落地”往往滯后于技術(shù)本身。其根本原因之一,就在于缺乏“場景級治理配套”。如果缺乏這些制度安排,人工智能再先進(jìn)也難以獲得信任和合法性。因此,治理不僅是防范風(fēng)險(xiǎn)的“保護(hù)性屏障”,更構(gòu)成了推動(dòng)人工智能融入現(xiàn)實(shí)社會(huì)的“適應(yīng)性基礎(chǔ)設(shè)施”。
(三) 人工智能的市場塑造
除了風(fēng)險(xiǎn)防控和社會(huì)建構(gòu),治理還擔(dān)負(fù)著人工智能產(chǎn)業(yè)市場塑造的功能。人工智能的治理深刻影響市場的形成與演化路徑,具備“產(chǎn)業(yè)塑造”與“競爭調(diào)控”的重要作用。首先,準(zhǔn)入門檻的設(shè)定直接決定了哪些企業(yè)有機(jī)會(huì)參與人工智能產(chǎn)業(yè)的發(fā)展。例如,如果高風(fēng)險(xiǎn)人工智能系統(tǒng)必須滿足嚴(yán)格的測試認(rèn)證要求,中小企業(yè)可能因合規(guī)成本過高被排除在市場之外;反之,則可能引發(fā)“劣幣驅(qū)逐良幣”式的無序競爭。同時(shí),人工智能發(fā)展中也面臨典型的“路徑依賴”風(fēng)險(xiǎn)。一旦特定的模型架構(gòu)、數(shù)據(jù)資源或工具鏈取得先發(fā)優(yōu)勢,就可能在非最優(yōu)技術(shù)路線上造成事實(shí)性的“平臺鎖定”。因此,有效的治理手段可以通過技術(shù)標(biāo)準(zhǔn)開放、公共算力共享、基礎(chǔ)模型開源等,來避免路徑鎖定的問題。
在當(dāng)前人工智能治理實(shí)踐中,開源常被視為實(shí)現(xiàn)“普惠化人工智能”的重要途徑,然而其也伴隨潛在的安全風(fēng)險(xiǎn)與責(zé)任不清等問題。相較之下,閉源雖然有利于系統(tǒng)控制與風(fēng)險(xiǎn)管理,卻可能加劇能力壟斷與模型路徑依賴。因此,一種可能的治理思路是在制度設(shè)計(jì)上區(qū)分不同風(fēng)險(xiǎn)等級與具體應(yīng)用場景。對于一般性用途,可鼓勵(lì)開源共享;而對軍事、信息操縱與金融系統(tǒng)等高風(fēng)險(xiǎn)應(yīng)用領(lǐng)域,則應(yīng)設(shè)定更嚴(yán)格的開源門檻與責(zé)任機(jī)制。
實(shí)現(xiàn)人工智能治理的三重功能——風(fēng)險(xiǎn)防控、社會(huì)建構(gòu)與市場塑造,離不開政府、企業(yè)與社會(huì)多元主體的協(xié)同共治。政府不僅是監(jiān)管者,更是市場塑造者;企業(yè)不僅是人工智能技術(shù)創(chuàng)新的領(lǐng)先者,也是人工智能治理的前沿實(shí)踐者;而社會(huì)各界既是人工智能技術(shù)的使用者,也是推動(dòng)其治理理念生根落地的重要力量。只有政府、企業(yè)和社會(huì)擺脫傳統(tǒng)的“貓鼠博弈思維”,轉(zhuǎn)向協(xié)同治理和敏捷治理的思路,方能在推動(dòng)技術(shù)廣泛應(yīng)用的同時(shí)不斷優(yōu)化治理體系,在制度演進(jìn)中實(shí)現(xiàn)技術(shù)創(chuàng)新與社會(huì)價(jià)值的協(xié)同共生。
四、全球人工智能治理的困境與未來走向
人工智能治理不僅是國內(nèi)問題,更是一個(gè)全球性重大挑戰(zhàn)。人工智能的跨境傳播特性、影響范圍以及所蘊(yùn)含的系統(tǒng)性風(fēng)險(xiǎn),決定了人工智能的治理不能局限于國家層面。正如氣候變化、傳染病防控一樣,人工智能也正在成為全球治理體系中的“新型全球公共事務(wù)”。然而,現(xiàn)實(shí)中人工智能的全球治理推進(jìn)面臨諸多挑戰(zhàn),表現(xiàn)為治理機(jī)制碎片化、節(jié)奏不一致、路徑分歧與地緣政治化傾向等多個(gè)維度的結(jié)構(gòu)性困境。
(一) 技術(shù)路徑不同引發(fā)的治理差異化
各國在人工智能技術(shù)發(fā)展路徑上的差異,不僅表現(xiàn)在技術(shù)選擇和應(yīng)用重點(diǎn)上,也體現(xiàn)在對“何種風(fēng)險(xiǎn)應(yīng)被治理”的認(rèn)識上存在本質(zhì)分歧。例如,2024年初,國產(chǎn)大模型DeepSeek在國內(nèi)引起業(yè)界廣泛關(guān)注,其在搜索增強(qiáng)、中文語義建構(gòu)與推理能力方面突破顯著。這一新路徑的發(fā)展,也帶來治理工具如何適配的現(xiàn)實(shí)問題:是否要對具備高能力的國產(chǎn)大模型施加與國外頭部模型相當(dāng)?shù)脑u估要求?是否要對中文訓(xùn)練語料設(shè)定特殊保護(hù)機(jī)制?這些問題的回答,在不同國家政策中并無統(tǒng)一方案。這說明,全球治理機(jī)制之間需要互相學(xué)習(xí),互相借鑒,也需要在“原則一致”與“路徑多元”之間找到合理平衡,避免以一種技術(shù)范式凌駕于他國實(shí)踐之上。
(二) 治理節(jié)奏與技術(shù)發(fā)展的錯(cuò)配
人工智能技術(shù)發(fā)展呈現(xiàn)指數(shù)型演進(jìn),而治理體系的演進(jìn)則普遍存在滯后與碎片化現(xiàn)象,導(dǎo)致出現(xiàn)典型的技術(shù)發(fā)展與技術(shù)治理之間的步調(diào)不一致。監(jiān)管政策的制定、立法程序、標(biāo)準(zhǔn)建設(shè)等過程均具有特定的周期性與協(xié)商性等特征,很難與技術(shù)迭代的速度實(shí)現(xiàn)同步對接。例如,Open AI發(fā)布GPT-4不到半年,國內(nèi)外即有多款對標(biāo)模型上線,但多數(shù)國家對大模型的法律分類、數(shù)據(jù)使用邊界、能力管控機(jī)制仍未落地。在此背景下,“邊創(chuàng)新邊治理”“沙盒實(shí)驗(yàn)”與“敏捷治理”成為現(xiàn)實(shí)可行的治理方式。OECD提出的“靈活監(jiān)管”(Agile Regulation)理念就強(qiáng)調(diào),應(yīng)以適應(yīng)性制度嵌入快速演進(jìn)的技術(shù)環(huán)境,建立“監(jiān)測—評估—調(diào)試—再立法”的周期型治理流程。
(三) 全球人工智能治理機(jī)制復(fù)合體面臨的治理困境
當(dāng)前,全球范圍內(nèi)已形成多個(gè)圍繞人工智能治理的倡議與機(jī)制,但這些機(jī)制之間缺乏層級關(guān)系與協(xié)調(diào)機(jī)制,形成所謂的“機(jī)制復(fù)合體”(regime complex):
1. 聯(lián)合國系統(tǒng)中的教科文組織(UNESCO)發(fā)布了《人工智能倫理建議書》;
2. 經(jīng)合組織(OECD)制定了人工智能推薦原則,并推動(dòng)成員國采納;
3. 歐洲聯(lián)盟制定了《人工智能法案》,試圖構(gòu)建最系統(tǒng)的人工智能監(jiān)管立法;
4. 世界經(jīng)濟(jì)論壇(WEF)則設(shè)有人工智能治理的多利益攸關(guān)方平臺;
5. GPAI(全球伙伴關(guān)系人工智能組織)試圖在技術(shù)層面達(dá)成國際共識。
然而,這些機(jī)制在目標(biāo)設(shè)定、治理工具、成員構(gòu)成與規(guī)則設(shè)計(jì)等方面存在不同程度的重疊乃至沖突。例如,OECD的“自愿性軟法”機(jī)制與歐盟“強(qiáng)制立法”機(jī)制之間的協(xié)調(diào)性就一直是外界質(zhì)疑的焦點(diǎn)。
雖然“機(jī)制復(fù)合體”的現(xiàn)實(shí)在一定程度上反映了全球治理的多元協(xié)商邏輯,但也帶來了一系列現(xiàn)實(shí)難題:如(1)治理效能低——重復(fù)設(shè)立規(guī)則、標(biāo)準(zhǔn)不統(tǒng)一;(2)話語權(quán)失衡——部分機(jī)制被大國主導(dǎo),發(fā)展中國家缺乏影響力;(3)合規(guī)困境——企業(yè)面臨不同國家制度之間的合規(guī)沖突,增加成本。因此,全球治理需要建立跨機(jī)制協(xié)調(diào)平臺或規(guī)則對接機(jī)制,推動(dòng)在基本原則層面一致性的前提下,允許在細(xì)則上保持多樣性。
(四) 地緣政治與對立化趨勢
當(dāng)前最為嚴(yán)峻的全球治理障礙,是地緣政治沖突對人工智能合作形成的壁壘。原本可以在技術(shù)、倫理、標(biāo)準(zhǔn)等層面展開廣泛合作的人工智能治理議題,越來越多地被納入戰(zhàn)略博弈的框架之中。例如,從技術(shù)與成本角度來看,通用人工智能(AGI)的開發(fā)可以效仿國際熱核聚變實(shí)驗(yàn)堆(ITER)項(xiàng)目的方式,由全球主要國家共建聯(lián)合實(shí)驗(yàn)室,在統(tǒng)一的倫理與安全機(jī)制下推進(jìn),既可以分?jǐn)偝杀荆部梢愿玫毓芸仫L(fēng)險(xiǎn)。然而,現(xiàn)實(shí)卻是,AGI 的研發(fā)逐漸演變?yōu)樯贁?shù)國家主導(dǎo)、大型科技企業(yè)牽頭的“競賽型項(xiàng)目”,而全球協(xié)同開發(fā)與風(fēng)險(xiǎn)共擔(dān)的路徑,在當(dāng)前地緣緊張格局下,幾乎已成為“天方夜譚”。再如開源模型領(lǐng)域,Meta的LLaMA系列與深度求索的Deepseek,其開放性促進(jìn)了中小企業(yè)和社會(huì)廣大人群采用人工智能技術(shù)的積極性。然而,美國部分政策推動(dòng)限制高參數(shù)量模型開放的門檻,同時(shí)警惕其被所謂“對手國家”利用,凸顯出開源閉源這一商業(yè)決策的行為本身也被政治化。在國內(nèi),亦有聲音擔(dān)憂全面開源可能削弱技術(shù)壁壘、加劇成果外溢,使得本來是企業(yè)策略的開源閉源選擇被鑲嵌進(jìn)了國際競爭的制度博弈中。
(五) 人工智能治理的未來發(fā)展趨勢
面向未來,我們可以清楚地看到,人工智能治理如果失去合作性,將無法應(yīng)對跨境風(fēng)險(xiǎn);如果失去包容性,將加劇“智能鴻溝”;如果失去合法性,將削弱公眾信任。正因如此,人工智能治理必須回歸到全球合作的正確軌道上,形成將人工智能治理作為“全球公共產(chǎn)品”的全球共識和制度認(rèn)知。所謂公共產(chǎn)品,指的是具有“非排他性”與“非競爭性”的公益性產(chǎn)品或服務(wù),而這恰恰就是人工智能治理的本質(zhì)。與氣候安全、國際和平、數(shù)字互聯(lián)等全球性公共產(chǎn)品一樣,人工智能治理給國際社會(huì)帶來系統(tǒng)安全性、公平性與風(fēng)險(xiǎn)防范能力,是全世界所有國家的所有人都應(yīng)當(dāng)平等享受的權(quán)利。因此,為了改善人工智能的全球治理,國際社會(huì)應(yīng)該采取如下措施:
1. 在聯(lián)合國體系下,就全球人工智能道德與治理原則形成共識;
2. 推動(dòng)建立在聯(lián)合國框架下的多元人工智能治理協(xié)調(diào)機(jī)制;
3. 建設(shè)國際人工智能能力中心,幫助全球南方國家提升人工智能發(fā)展與治理的能力;
4. 促進(jìn)國際安全研究機(jī)構(gòu)積極合作,形成人工智能安全標(biāo)準(zhǔn)及評估認(rèn)證流程。
五、結(jié)語
人工智能正處于從“工具型技術(shù)”向“生態(tài)型技術(shù)”轉(zhuǎn)型的歷史拐點(diǎn)。從早期的算法突破與模型演進(jìn),到當(dāng)下的平臺構(gòu)建與場景深度融合,人工智能技術(shù)正在日益嵌入人類社會(huì)的運(yùn)行機(jī)制之中。與此同時(shí),其潛在風(fēng)險(xiǎn)亦呈現(xiàn)出更復(fù)雜、更系統(tǒng)化、更難預(yù)測的特征,深刻挑戰(zhàn)現(xiàn)有的治理能力、制度設(shè)計(jì)與國際協(xié)調(diào)體系。因此,人工智能的治理并非人工智能技術(shù)發(fā)展的附屬議題,而是與人工智能技術(shù)共同進(jìn)化伴生的“制度生態(tài)構(gòu)建工程”。治理的任務(wù)既要面向“安全風(fēng)險(xiǎn)管控”,也要著眼“社會(huì)結(jié)構(gòu)塑形”,更要推進(jìn)“市場機(jī)制構(gòu)造”,只有三者同步協(xié)調(diào)發(fā)展,才能真正保障人工智能以安全、可信、公平的方式造福全人類。
(部分內(nèi)容來源網(wǎng)絡(luò),如有侵權(quán)請聯(lián)系刪除)