日日碰狠狠躁久久躁96avv-97久久超碰国产精品最新-婷婷丁香五月天在线播放,狠狠色噜噜色狠狠狠综合久久 ,爱做久久久久久,高h喷水荡肉爽文np肉色学校

睿治

智能數據治理平臺

睿治作為國內功能最全的數據治理產品之一,入選IDC企業數據治理實施部署指南。同時,在IDC發布的《中國數據治理市場份額》報告中,連續四年蟬聯數據治理解決方案市場份額第一。

全球人工智能治理的困境與未來走向!

時間:2025-09-26來源:談數據瀏覽數:82

近年來,隨著人工智能技術的快速發展,人工智能的治理問題也越來越受到社會各界的廣泛關注。人們逐漸意識到,人工智能不僅是一項前沿科技,更是一種深刻影響社會結構、經濟體系和全球治理格局的系統性力量。因此,如何在推動人工智能技術創新的同時建立起科學有效的治理機制,已成為當前技術政策研究與實踐的核心議題。2025年4月25日,習近平總書記在主持中共中央政治局集體學習時指出,人工智能帶來前所未有發展機遇,也帶來前所未遇風險挑戰。他強調,要把握人工智能發展趨勢和規律,加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。習近平總書記的重要指示為我們完善人工智能治理提供了重要的努力方向。


然而,在現實語境中,人工智能治理仍存在一定程度的認知誤區。一種較為典型的觀點認為,人工智能的發展和應用仍在初始階段,此時提出治理問題可能會過早地對技術創新形成不必要的束縛。本質上說,這樣的看法一方面低估了人工智能技術給社會可能帶來的風險和危害,另一方面也低估了治理機制在引導和塑造技術發展過程中可以起到的關鍵能動作用。事實上,治理并非創新的對立面,而是實現人工智能健康、有序、可持續發展過程中不可或缺的制度性支撐。


此外,人工智能的發展也無法脫離國際環境而孤立前行。在全球化語境中,中國在人工智能領域的崛起雖然取得了顯著成效,但在技術創新與治理模式之間的權衡上仍面臨諸多挑戰。當前國際治理體系高度碎片化,不同國家與地區在治理理念、制度安排與政策節奏上差異顯著,協調難度不斷上升。在此背景下,如何為中國人工智能的發展探索出一條契合自身國情、具有全球適應力的發展路徑,已成為亟待解決的重要現實問題。

在展開對治理問題的討論之前,我們有必要先回顧和理解人工智能技術正在經歷的一場深刻變革。這場變革不僅關乎技術層面的更新迭代,更關乎整個人工智能生態系統的重構與再定位。


2025年7月,2025中國數字經濟發展和治理學術年會在清華大學成功舉辦。清華大學蘇世民書院院長、公共管理學院教授薛瀾發表題為《全球視野下的人工智能治理——挑戰、機制與未來路徑》的主旨演講。

一、人工智能技術生態的演進與變革

當前人工智能技術生態系統的核心特征,正在由“工具集成”向“平臺統攝”發生根本轉變。在早期,人工智能主要以特定應用程序或算法模型的形式存在,具有高度專業化、碎片化的特征。而近年來,伴隨大模型(Foundation Models)與多模態架構的發展,人工智能逐漸形成以平臺為中心的生態格局。以Open AI、Anthropic、Google、深度求索、字節、百度、阿里、智普等企業開發的平臺型人工智能體系,不僅整合了算法模型、數據資源和計算能力,而且通過API接口、插件機制和多邊生態合作,逐漸形成集研發、部署、服務、用戶交互和治理于一體的完整系統。這種生態結構的重構,使得人工智能不再是單一的技術工具,而成為一個能夠持續學習、適應與演化的系統性存在。平臺化帶來了生態外部性與路徑依賴的風險,也對治理提出了前所未有的復雜要求。

2025年可以被視為人工智能體(AI Agent)發展的關鍵節點。年初,Open AI推出了名為“Operator”的智能體系統,標志著人工智能從“被動響應式模型”向“主動任務執行系統”的加速轉型。這類系統不僅能夠執行復雜任務,還具備調度其他模型、記憶上下文信息并與用戶持續交互的能力,具備了一定的“類自主性”。與此同時,國內企業也在積極布局。例如,智譜在智能體技術路徑上持續探索,推出了能夠完成多輪交互、任務拆解與執行的自主智能體,形成了從通用模型到垂直智能體的初步生態鏈。這一趨勢表明,智能體不僅是技術演進的自然延伸,更是平臺間競爭的新賽道。


大模型之間的競爭態勢也在不斷變化。自2022年以來,針對通用大模型能力的評估框架迅速發展,包括MMLU(Massive Multitask Language Understanding)、Hella Swag、GSM8K和GAOKAO Bench等在內的多項基準測試被廣泛使用。不同測試標準常導致模型表現排名的變動,但總體來看,Open AI的GPT系列、Anthropic的Claude以及Google旗下DeepMind的Gemini系列在綜合性能上依然領先,國內大模型如GLM、通義千問、百度文心、深度求索等則在特定場景(如中文處理、文檔問答)中表現優異。

值得關注的是,人工智能在人類認知領域的進展速度令人驚嘆。在數學奧林匹克競賽題目測試中,人工智能模型已逐步具備解決復雜題目的能力,部分模型在解題準確率上甚至超越了人類參與者的平均水平。這種技術的躍升,不僅增強了人們對通用人工智能(AGI)可行性的預期,也加劇了社會各界在應對人工智能發展時加強治理的緊迫感。


二、人工智能治理的內涵與理論框架

人工智能治理(AI Governance)是一個多維度、多工具、多主體參與的動態系統性過程。其目的不僅在于防范潛在風險,更在于塑造人工智能的發展方向與應用邊界,使技術的進步與社會價值相協調。治理既包括倫理與原則的制定,也包括政策激勵與市場規制,還涉及標準建設與國際協調。可以說,人工智能治理是規范、引導、協調人工智能發展的制度總和。目前較為通行的人工智能治理框架,通常可以分為三個層次:

1. 倫理與價值維度——該維度關注的是人工智能系統在開發與應用中應當遵循的基本倫理原則,包括但不限于:

(1)安全性與可控性:確保系統在設計上能避免失控風險;

(2)透明性與可解釋性:保障用戶了解人工智能系統的運作機制與決策過程;

(3)公平性與非歧視性:防止人工智能在算法訓練或部署過程中加劇社會不公;

(4)責任可追溯性:明確人工智能決策背后的責任歸屬。

在這一方面,中國人工智能治理專家委員會于2019年提出了“負責任人工智能”的八項治理準則。歐盟、OECD、IEEE等國際組織也相繼發布了多套人工智能倫理框架。例如,OECD于2019年發布的《人工智能推薦原則》明確提出了五項以價值為基礎的指導原則,以促進“可信人工智能”的發展與負責任治理。


2. 政策支持與市場激勵維度——治理不僅是限制,更是塑造和激勵。政府可以通過財政投入、研發資助、基礎設施建設、人才政策與公共采購等方式,為人工智能創新提供制度土壤。同時,也需要通過反壟斷政策、數據共享機制、中小企業扶持等手段,維護技術創新生態的多樣性與可持續性。例如,2017年發布的中國《新一代人工智能發展規劃》提出以“三步走”戰略推動人工智能產業發展,強調國家主導與企業協同的創新路徑。這是一種典型的政策驅動型治理結構,具有較強的系統組織能力與資源整合能力。


3. 規制與標準維度——規制是治理的重要組成部分,但不應被狹義地等同于“限制”。其內涵包括:

(1)法律法規:如《數據安全法》《個人信息保護法》《算法推薦管理規定》等,為人工智能治理提供法理依據與監管框架;

(2)技術標準:包括模型訓練規范、數據處理接口標準、安全評估機制;

(3)責任機制:界定平臺方、開發者、使用者等多方責任邊界;

(4)合規評估:建設風險識別、分級管理、動態評估與退出機制。

當前,歐盟《人工智能法案》(AI Act)已進入最終立法階段,其將人工智能系統分為“禁止類”“高風險類”“有限風險類”與“最低風險類”,并據此提出差異化監管要求,成為人工智能規制分級管理的重要案例。如上所述,人工智能治理既具有多元的目標導向,也依賴多樣化的治理工具,涵蓋傳統的行政法規,以及大量的政策措施、自律機制和技術手段。多元工具的協同應用,有助于在技術發展快速變化的環境中實現敏捷治理。


三、人工智能治理的三重功能:風險防控-社會建構-市場塑造

(一) 人工智能的風險防控

現有的人工智能技術系統由于其復雜性和不可解釋性,內生性地帶來一些潛在的技術失靈風險。一旦被濫用或用于惡意目的,其危害可能超出技術范疇,在關鍵領域引發局部性損害,甚至演變為系統性風險。因此,理解人工智能風險治理的必要性與緊迫性,需對其潛在風險進行系統分類、剖析成因,并找到相應的解決辦法。

人工智能風險的分類有很多種,圖靈獎得主Yoshua Bengio于2025年牽頭發布的《國際人工智能安全報告》,將人工智能帶來的各種風險劃分為三大類(Bengio et al., 2025):

1. 惡意使用風險(Malicious Use Risks):指人為使用人工智能系統進行傷害、操控、欺詐等非法或不道德行為;

2. 技術失靈風險(Malfunction Risks):即人工智能系統在正常使用情況下由于故障或技術失靈帶來的不良后果;

3. 系統性風險(Systemic Risks):指人工智能大規模應用后可能引發的廣泛性負面社會影響。


人工智能惡意使用的風險目前已經比較常見。2023年,英國某知名公司遭遇一起令人震驚的深度偽造詐騙案件。該公司位于香港的一位員工應公司“上級”的邀請參加視頻會議,并根據對方指令將約2億港元匯入多個賬戶。事后調查發現,除該員工本人外,所有“參會者”皆為由生成式人工智能所合成的虛擬影像,通過深度偽造(Deepfake)技術逼真模擬真實的聲音與面貌。這一事件凸顯了生成式人工智能在欺詐應用中的巨大風險,傳統的語音、視頻驗證機制在此類情況下幾乎失效。從治理角度看,如何在制度層面防范生成式人工智能被惡意利用,亟需得到更高優先級的回應。

人工智能技術失靈比較典型的情況就是所謂“幻覺”(hallucination)的產生,即模型生成與客觀事實不符,甚至完全虛構的信息內容。這在很多對準確性要求很高的應用場景來說至關重要。例如,近年來不少律師事務所嘗試將GPT等模型用于法律案件梳理與檢索,但結果并不理想。最著名的案例之一是2023年美國某律師在提交訴狀中引用了數個根本不存在的“判例”,經查這些判例均由人工智能編造,導致法院當庭指責該律所嚴重失職。目前包括美國律師協會在內的多個行業協會已發出預警,要求在法律實踐中使用人工智能輔助時必須設立嚴格的驗證機制。


人工智能帶來的系統性風險包括對就業、知識產權、社會認知等方面的影響。當前最受關注的風險之一,是生成式人工智能與現有版權保護機制之間日益凸顯的沖突。2023年底,《紐約時報》起訴Open AI和微軟,指控其在未經授權的情況下將大量新聞內容用于大模型訓練。這一案件觸及人工智能治理中極為復雜的議題,包括訓練數據的知識產權歸屬問題,“合理使用”邊界如何在訓練場景中界定,以及模型生成結果是否構成“衍生作品”等。盡管該案件尚未審結,但已經促使多國監管機構重新審視人工智能與版權之間的關系。


在上述三類風險中,人類社會面臨的最大潛在風險就是技術失靈中的最可怕的失控情況,亦即當人工智能發展到通用人工智能(AGI)或超級人工智能(ASI)的階段,人類喪失對其控制權。早在1950年,人工智能奠基人圖靈就在《Mind》期刊發表的經典論文中提出“child-machine”的構想,預見了人工智能可能具備自我學習與自主演化的能力(Turing, 1950)。機器將通過實驗學習不斷優化自身,行為結果并不完全由人類預設。今天,圖靈這一預測似乎正一步步成為現實。隨著人工智能系統擁有代碼生成、自我優化甚至模擬人類行為的能力,其“不可預測性”日益顯現。牛津大學Bostrom(2014)提出“價值鎖定(Value Lock-in)”風險,即早期設計的不完美目標函數可能在AGI中被永久嵌入,帶來不可逆的災難性后果。因此,可控性問題已成為人工智能風險治理領域的最核心問題之一。


由此引發的一個根本性治理問題是:當人工智能技術發展到某一階段,是否應該有“暫停”的選項?在生命科學領域,倫理底線的設立已較為成熟。例如,人類胚胎編輯、克隆等研究方向已在國際上形成廣泛共識,不少國家設立了明確禁區。人工智能是否也應設定類似的“倫理紅線”? 近年來,該問題的緊迫性與爭議性顯著上升。2023年,超過1000位人工智能專家與科技領袖聯合簽署《暫停大型人工智能實驗公開信》,呼吁對超過GPT-4級別的人工智能系統實施“自愿性開發暫停”,以等待社會共識與治理機制的建立。這一行動雖頗具爭議性且在現實中難以實施,但也凸顯出科技界內部對于“不可控風險”的現實焦慮。


(二)人工智能的社會建構

人工智能治理的目的,不僅是“應對風險”,更重要的是塑造人工智能的社會-技術系統(socio-technical systems)、支撐相應的制度架構的協同演化,并最終形成一個兼具創新性、安全性與公平性的社會應用生態。正如哈佛大學肯尼迪政府學院科學技術學教授Sheila Jasanoff所指出:技術并非價值中立的工具,它始終承載著規范、制度與權力結構,并在社會實踐中被再生產與不斷重塑(Jasanoff, 2004)。因此,人工智能治理的意義,絕不僅僅是畫出“禁區”,更在于鋪設“通道”和“軌道”。技術從來不是“拿來即用”的工具。任何人工智能系統的成功部署,必然依賴于其與社會制度、法律規制、基礎設施和文化環境的深度耦合。這就是“社會技術共構”的基本邏輯。

一個典型的例子是公路交通系統。從汽車技術誕生到廣泛普及,人類社會配套建設了道路網絡、交通信號及交規體系、駕照制度、保險機制、加油與維修網絡等一系列技術及社會運行機制,來保障讓汽車真正成為一種社會生產與生活系統的組成部分。長遠來看,人工智能的發展同樣需要經歷一場復雜的“社會適配”過程。無論是醫療、教育,還是政務領域的人工智能應用,其有效落地都依賴于數據治理、倫理審查、接口標準、責任認定等制度要素的協同支撐。這些制度性安排本身,即構成了人工智能治理不可或缺的一部分。以醫療場景為例,即使人工智能系統的診斷準確率優于醫生,其應用仍需滿足如下治理條件:(a)明確的數據隱私合規機制;(b)醫療責任歸屬的法律認定;(c)醫患之間的信息透明;(d)醫保報銷政策的對接。雖然在底層算法與模型結構上,人工智能已取得顯著進展,但其“落地”往往滯后于技術本身。其根本原因之一,就在于缺乏“場景級治理配套”。如果缺乏這些制度安排,人工智能再先進也難以獲得信任和合法性。因此,治理不僅是防范風險的“保護性屏障”,更構成了推動人工智能融入現實社會的“適應性基礎設施”。


(三) 人工智能的市場塑造

除了風險防控和社會建構,治理還擔負著人工智能產業市場塑造的功能。人工智能的治理深刻影響市場的形成與演化路徑,具備“產業塑造”與“競爭調控”的重要作用。首先,準入門檻的設定直接決定了哪些企業有機會參與人工智能產業的發展。例如,如果高風險人工智能系統必須滿足嚴格的測試認證要求,中小企業可能因合規成本過高被排除在市場之外;反之,則可能引發“劣幣驅逐良幣”式的無序競爭。同時,人工智能發展中也面臨典型的“路徑依賴”風險。一旦特定的模型架構、數據資源或工具鏈取得先發優勢,就可能在非最優技術路線上造成事實性的“平臺鎖定”。因此,有效的治理手段可以通過技術標準開放、公共算力共享、基礎模型開源等,來避免路徑鎖定的問題。

在當前人工智能治理實踐中,開源常被視為實現“普惠化人工智能”的重要途徑,然而其也伴隨潛在的安全風險與責任不清等問題。相較之下,閉源雖然有利于系統控制與風險管理,卻可能加劇能力壟斷與模型路徑依賴。因此,一種可能的治理思路是在制度設計上區分不同風險等級與具體應用場景。對于一般性用途,可鼓勵開源共享;而對軍事、信息操縱與金融系統等高風險應用領域,則應設定更嚴格的開源門檻與責任機制。

實現人工智能治理的三重功能——風險防控、社會建構與市場塑造,離不開政府、企業與社會多元主體的協同共治。政府不僅是監管者,更是市場塑造者;企業不僅是人工智能技術創新的領先者,也是人工智能治理的前沿實踐者;而社會各界既是人工智能技術的使用者,也是推動其治理理念生根落地的重要力量。只有政府、企業和社會擺脫傳統的“貓鼠博弈思維”,轉向協同治理和敏捷治理的思路,方能在推動技術廣泛應用的同時不斷優化治理體系,在制度演進中實現技術創新與社會價值的協同共生。


四、全球人工智能治理的困境與未來走向

人工智能治理不僅是國內問題,更是一個全球性重大挑戰。人工智能的跨境傳播特性、影響范圍以及所蘊含的系統性風險,決定了人工智能的治理不能局限于國家層面。正如氣候變化、傳染病防控一樣,人工智能也正在成為全球治理體系中的“新型全球公共事務”。然而,現實中人工智能的全球治理推進面臨諸多挑戰,表現為治理機制碎片化、節奏不一致、路徑分歧與地緣政治化傾向等多個維度的結構性困境。


(一) 技術路徑不同引發的治理差異化

各國在人工智能技術發展路徑上的差異,不僅表現在技術選擇和應用重點上,也體現在對“何種風險應被治理”的認識上存在本質分歧。例如,2024年初,國產大模型DeepSeek在國內引起業界廣泛關注,其在搜索增強、中文語義建構與推理能力方面突破顯著。這一新路徑的發展,也帶來治理工具如何適配的現實問題:是否要對具備高能力的國產大模型施加與國外頭部模型相當的評估要求?是否要對中文訓練語料設定特殊保護機制?這些問題的回答,在不同國家政策中并無統一方案。這說明,全球治理機制之間需要互相學習,互相借鑒,也需要在“原則一致”與“路徑多元”之間找到合理平衡,避免以一種技術范式凌駕于他國實踐之上。


(二) 治理節奏與技術發展的錯配

人工智能技術發展呈現指數型演進,而治理體系的演進則普遍存在滯后與碎片化現象,導致出現典型的技術發展與技術治理之間的步調不一致。監管政策的制定、立法程序、標準建設等過程均具有特定的周期性與協商性等特征,很難與技術迭代的速度實現同步對接。例如,Open AI發布GPT-4不到半年,國內外即有多款對標模型上線,但多數國家對大模型的法律分類、數據使用邊界、能力管控機制仍未落地。在此背景下,“邊創新邊治理”“沙盒實驗”與“敏捷治理”成為現實可行的治理方式。OECD提出的“靈活監管”(Agile Regulation)理念就強調,應以適應性制度嵌入快速演進的技術環境,建立“監測—評估—調試—再立法”的周期型治理流程。


(三) 全球人工智能治理機制復合體面臨的治理困境

當前,全球范圍內已形成多個圍繞人工智能治理的倡議與機制,但這些機制之間缺乏層級關系與協調機制,形成所謂的“機制復合體”(regime complex):

1. 聯合國系統中的教科文組織(UNESCO)發布了《人工智能倫理建議書》;

2. 經合組織(OECD)制定了人工智能推薦原則,并推動成員國采納;

3. 歐洲聯盟制定了《人工智能法案》,試圖構建最系統的人工智能監管立法;

4. 世界經濟論壇(WEF)則設有人工智能治理的多利益攸關方平臺;

5. GPAI(全球伙伴關系人工智能組織)試圖在技術層面達成國際共識。

然而,這些機制在目標設定、治理工具、成員構成與規則設計等方面存在不同程度的重疊乃至沖突。例如,OECD的“自愿性軟法”機制與歐盟“強制立法”機制之間的協調性就一直是外界質疑的焦點。

雖然“機制復合體”的現實在一定程度上反映了全球治理的多元協商邏輯,但也帶來了一系列現實難題:如(1)治理效能低——重復設立規則、標準不統一;(2)話語權失衡——部分機制被大國主導,發展中國家缺乏影響力;(3)合規困境——企業面臨不同國家制度之間的合規沖突,增加成本。因此,全球治理需要建立跨機制協調平臺或規則對接機制,推動在基本原則層面一致性的前提下,允許在細則上保持多樣性。


(四) 地緣政治與對立化趨勢

當前最為嚴峻的全球治理障礙,是地緣政治沖突對人工智能合作形成的壁壘。原本可以在技術、倫理、標準等層面展開廣泛合作的人工智能治理議題,越來越多地被納入戰略博弈的框架之中。例如,從技術與成本角度來看,通用人工智能(AGI)的開發可以效仿國際熱核聚變實驗堆(ITER)項目的方式,由全球主要國家共建聯合實驗室,在統一的倫理與安全機制下推進,既可以分攤成本,也可以更好地管控風險。然而,現實卻是,AGI 的研發逐漸演變為少數國家主導、大型科技企業牽頭的“競賽型項目”,而全球協同開發與風險共擔的路徑,在當前地緣緊張格局下,幾乎已成為“天方夜譚”。再如開源模型領域,Meta的LLaMA系列與深度求索的Deepseek,其開放性促進了中小企業和社會廣大人群采用人工智能技術的積極性。然而,美國部分政策推動限制高參數量模型開放的門檻,同時警惕其被所謂“對手國家”利用,凸顯出開源閉源這一商業決策的行為本身也被政治化。在國內,亦有聲音擔憂全面開源可能削弱技術壁壘、加劇成果外溢,使得本來是企業策略的開源閉源選擇被鑲嵌進了國際競爭的制度博弈中。


(五) 人工智能治理的未來發展趨勢

面向未來,我們可以清楚地看到,人工智能治理如果失去合作性,將無法應對跨境風險;如果失去包容性,將加劇“智能鴻溝”;如果失去合法性,將削弱公眾信任。正因如此,人工智能治理必須回歸到全球合作的正確軌道上,形成將人工智能治理作為“全球公共產品”的全球共識和制度認知。所謂公共產品,指的是具有“非排他性”與“非競爭性”的公益性產品或服務,而這恰恰就是人工智能治理的本質。與氣候安全、國際和平、數字互聯等全球性公共產品一樣,人工智能治理給國際社會帶來系統安全性、公平性與風險防范能力,是全世界所有國家的所有人都應當平等享受的權利。因此,為了改善人工智能的全球治理,國際社會應該采取如下措施:

1. 在聯合國體系下,就全球人工智能道德與治理原則形成共識;

2. 推動建立在聯合國框架下的多元人工智能治理協調機制;

3. 建設國際人工智能能力中心,幫助全球南方國家提升人工智能發展與治理的能力;

4. 促進國際安全研究機構積極合作,形成人工智能安全標準及評估認證流程。


五、結語

人工智能正處于從“工具型技術”向“生態型技術”轉型的歷史拐點。從早期的算法突破與模型演進,到當下的平臺構建與場景深度融合,人工智能技術正在日益嵌入人類社會的運行機制之中。與此同時,其潛在風險亦呈現出更復雜、更系統化、更難預測的特征,深刻挑戰現有的治理能力、制度設計與國際協調體系。因此,人工智能的治理并非人工智能技術發展的附屬議題,而是與人工智能技術共同進化伴生的“制度生態構建工程”。治理的任務既要面向“安全風險管控”,也要著眼“社會結構塑形”,更要推進“市場機制構造”,只有三者同步協調發展,才能真正保障人工智能以安全、可信、公平的方式造福全人類。

(部分內容來源網絡,如有侵權請聯系刪除)
立即申請數據分析/數據治理產品免費試用 我要試用
customer

在線咨詢

在線咨詢

點擊進入在線咨詢