日日碰狠狠躁久久躁96avv-97久久超碰国产精品最新-婷婷丁香五月天在线播放,狠狠色噜噜色狠狠狠综合久久 ,爱做久久久久久,高h喷水荡肉爽文np肉色学校

睿治

智能數(shù)據(jù)治理平臺(tái)

睿治作為國(guó)內(nèi)功能最全的數(shù)據(jù)治理產(chǎn)品之一,入選IDC企業(yè)數(shù)據(jù)治理實(shí)施部署指南。同時(shí),在IDC發(fā)布的《中國(guó)數(shù)據(jù)治理市場(chǎng)份額》報(bào)告中,連續(xù)四年蟬聯(lián)數(shù)據(jù)治理解決方案市場(chǎng)份額第一。

AI科技時(shí)代的不對(duì)稱性挑戰(zhàn)

時(shí)間:2022-04-06來(lái)源:中國(guó)女孩瀏覽數(shù):355

本文系《認(rèn)真對(duì)待個(gè)人信息保護(hù)的社會(huì)結(jié)構(gòu):AI科技時(shí)代的不對(duì)稱性挑戰(zhàn)》一文的正文,注釋從略,全文發(fā)表于《環(huán)球法律評(píng)論》2022年第2期,原文請(qǐng)參見(jiàn)環(huán)球法律評(píng)論網(wǎng)站:http://www.globallawreview.org,或點(diǎn)擊文末左下角“閱讀原文”。

內(nèi)容提要:《個(gè)人信息保護(hù)法》的出臺(tái)要有效回應(yīng)AI科技應(yīng)用帶來(lái)的個(gè)體與共同生活的雙重改變。目前學(xué)界對(duì)人工智能技術(shù)沖擊下的社會(huì)結(jié)構(gòu)的闡述存在不少缺陷。AI科技的應(yīng)用具有道德鏡像屬性與社會(huì)工具屬性,它構(gòu)成了社會(huì)大挑戰(zhàn)。我們共同生活的架構(gòu)以及諸多價(jià)值理念沒(méi)有被明顯消解,但其真實(shí)的運(yùn)作已經(jīng)被重塑和改變。功利主義式和現(xiàn)實(shí)主義式論調(diào)認(rèn)為,類似的結(jié)構(gòu)重塑和改變由于在結(jié)果上是好的,所以并沒(méi)有什么不對(duì)。這種論調(diào)既是反事實(shí)的,在價(jià)值上又無(wú)法證立。在隱默且不當(dāng)?shù)牟粚?duì)稱性結(jié)構(gòu)之下,AI科技構(gòu)成社會(huì)挑戰(zhàn)的關(guān)鍵在于:它改變了民主關(guān)系中的權(quán)力支配狀態(tài),進(jìn)而使得強(qiáng)制力行使的正當(dāng)性不足。科技公司與政府擔(dān)負(fù)著重新宣誓忠實(shí)、重新贏取公眾信任的道德與政治義務(wù)。AI科技時(shí)代的法律實(shí)踐需要切實(shí)回應(yīng)社會(huì)結(jié)構(gòu)中的不對(duì)稱性挑戰(zhàn),并被這一回應(yīng)的成效所檢驗(yàn)。

關(guān)鍵詞:個(gè)人信息?人工智能?不對(duì)稱性?科技權(quán)力?公共法理

《個(gè)人信息保護(hù)法》以極快的速度在中國(guó)落地生效,展現(xiàn)出中國(guó)對(duì)這一問(wèn)題的理解和重視程度:它不只關(guān)乎個(gè)體的權(quán)益保護(hù),也關(guān)乎主要國(guó)家之間的政治競(jìng)爭(zhēng),還關(guān)乎長(zhǎng)久經(jīng)濟(jì)利益的占有與分配。這主要是因?yàn)樾畔⒖萍嫉陌l(fā)展以及經(jīng)濟(jì)、社會(huì)交往方式的轉(zhuǎn)變,使得個(gè)人信息在社會(huì)結(jié)構(gòu)中的地位與功能發(fā)生了徹底的改變。從法學(xué)立基的權(quán)利視角來(lái)看,這些轉(zhuǎn)變觸發(fā)了對(duì)人格尊嚴(yán)、隱私、意志自治、民主權(quán)利、經(jīng)濟(jì)平等、社會(huì)進(jìn)步等價(jià)值何以保障和平衡的顧慮與吁求。這些價(jià)值訴求殊途同歸,最終均落腳在個(gè)人權(quán)益之上,追問(wèn)著在人工智能普遍應(yīng)用的時(shí)代繼續(xù)維持、保障和促進(jìn)個(gè)體美好生活的可能性與可行性。對(duì)這些追問(wèn)的成功回答部分取決于我們對(duì)上述實(shí)踐的實(shí)踐語(yǔ)境——AI科技全面塑造了和持續(xù)塑造著的社會(huì)結(jié)構(gòu)的——準(zhǔn)確理解與把握。

本文即是力求對(duì)該實(shí)踐語(yǔ)境提供一套全面的、具有競(jìng)爭(zhēng)力的說(shuō)明。本文認(rèn)為,人工智能技術(shù)在目前以及未來(lái)很長(zhǎng)的一段時(shí)間之內(nèi),仍然只是主體關(guān)系之中的媒介與手段,其帶來(lái)的社會(huì)問(wèn)題的核心并不像很多人呼吁的那樣,是要嚴(yán)肅對(duì)待和處理人與智能系統(tǒng)之間的關(guān)系。問(wèn)題的核心仍在人際主體之間,是要嚴(yán)肅對(duì)待和處理由人工智能技術(shù)帶來(lái)的人際主體間關(guān)系——特別是其中的權(quán)力支配關(guān)系——的變化,嚴(yán)肅對(duì)待和處理信息新科技更全面地揭露出來(lái)的,乃至不對(duì)稱地強(qiáng)化了的主體之間、社會(huì)之中的結(jié)構(gòu)性難題與道德弊病。本文將具體說(shuō)明,為何現(xiàn)有對(duì)人工智能之挑戰(zhàn)的理解是欠缺現(xiàn)實(shí)性的,“人與人工智能的關(guān)系”為何不是一個(gè)恰當(dāng)?shù)姆治鲆暯恰T诖嘶A(chǔ)上,本文以“被沖擊下的人際關(guān)系”為視角,以“不對(duì)稱性”為分析概念,呈現(xiàn)當(dāng)下人工智能最具法理性質(zhì)的社會(huì)挑戰(zhàn):它改變了民主關(guān)系中的權(quán)力支配狀態(tài),進(jìn)而使得強(qiáng)制力行使的正當(dāng)性不足,科技巨頭與政府需要重新宣誓忠實(shí),重新贏得公眾的信任。

一、AI科技形成挑戰(zhàn)了嗎?

探討AI科技構(gòu)成了怎樣的挑戰(zhàn)有一個(gè)不假思索的前提,即這類信息新科技的確構(gòu)成了挑戰(zhàn)。質(zhì)疑這一點(diǎn)似乎既是反直覺(jué)的也是反事實(shí)的,仿佛沒(méi)有太多討論的必要。但這一想法模糊了不同挑戰(zhàn)類型之間的區(qū)別,也高估了挑戰(zhàn)一詞的清晰性。

(一)構(gòu)成挑戰(zhàn)的條件

某項(xiàng)事物要想構(gòu)成挑戰(zhàn),邏輯上看,需要具備這樣幾個(gè)條件:第一,是它帶來(lái)的挑戰(zhàn),倘若這一挑戰(zhàn)在它出現(xiàn)之前就存在,它的出現(xiàn)只是落在了這一挑戰(zhàn)之中,對(duì)原有的問(wèn)題也無(wú)實(shí)質(zhì)的改變,我們便不能將這一挑戰(zhàn)歸諸于它;第二,它帶來(lái)的挑戰(zhàn)應(yīng)當(dāng)具有相當(dāng)程度的重要性,倘若它確實(shí)帶來(lái)了挑戰(zhàn),但該挑戰(zhàn)實(shí)在無(wú)足輕重,我們便沒(méi)有充足的理由關(guān)注它,又或者它的裨益與它的挑戰(zhàn)相比,裨益的重要程度遠(yuǎn)大于挑戰(zhàn),以致該挑戰(zhàn)可以被省略或擱置,那么學(xué)理或?qū)嵺`上重要性程度的降低也會(huì)消解在認(rèn)知澄清上的優(yōu)先次序;第三,由它帶來(lái)或重塑的重要挑戰(zhàn),要么現(xiàn)有的學(xué)理、機(jī)制不知如何解決,要么根本無(wú)法解決,要么解決的難度非常之高,倘若現(xiàn)有的架構(gòu)可以有效地或者大體上解決該問(wèn)題,它也不構(gòu)成真正的挑戰(zhàn)。

AI技術(shù)是否構(gòu)成挑戰(zhàn)便需要接受這三個(gè)方面的審視,本文也大致從這三個(gè)方面予以證明:第一,通過(guò)對(duì)AI科技應(yīng)用之社會(huì)屬性的說(shuō)明,證明本文所歸納的挑戰(zhàn)與AI科技之間具備直接關(guān)聯(lián);第二,通過(guò)對(duì)AI科技塑造的雙重不對(duì)稱性困境的描述,證明它帶來(lái)的這一挑戰(zhàn)是重要的;第三,通過(guò)對(duì)這一挑戰(zhàn)性質(zhì)的分析,證明這一挑戰(zhàn)無(wú)法通過(guò)對(duì)策性的、階段性的司法或立法應(yīng)對(duì)來(lái)解決。在具體展開(kāi)之前,本文第一部分先明確挑戰(zhàn)的類型,以為第二部分和第三部分的理論推進(jìn)確立基礎(chǔ)。

(二)兩種類型的挑戰(zhàn)

回到是否構(gòu)成挑戰(zhàn)的問(wèn)題上來(lái)。一旦開(kāi)始審視,便會(huì)遇到第一個(gè)困難,即需要明確,我們所討論的是哪種類型的挑戰(zhàn)?這樣的追問(wèn)之所以首要,是因?yàn)榇嬖谥鴥煞N指向不同的挑戰(zhàn):概念性的與實(shí)踐性的,它們的應(yīng)對(duì)方式與解決標(biāo)準(zhǔn)各不相同。

概念性分析本身存在一階與二階兩個(gè)不同層面的劃分,本文限定在一階層面。這一層面的概念性挑戰(zhàn)是說(shuō),出現(xiàn)了以往的概念無(wú)法明確涵蓋的對(duì)象,或者它的出現(xiàn)動(dòng)搖了既存概念觀的有效性或說(shuō)明力,它在概念層面挑戰(zhàn)了我們的現(xiàn)有認(rèn)知,并要求我們?cè)趯W(xué)理上重新予以分析、澄清;實(shí)踐性挑戰(zhàn)是說(shuō),它在實(shí)踐場(chǎng)域制造了需要認(rèn)真面對(duì)的道德困境,而我們不知道如何應(yīng)對(duì),或者就如何行動(dòng)存在重大分歧,進(jìn)而需要提出某個(gè)競(jìng)爭(zhēng)性的實(shí)踐方案并為之辯護(hù)。概念性挑戰(zhàn)譬如說(shuō),主張AI科技挑戰(zhàn)了人們對(duì)人、自由、尊嚴(yán)等基礎(chǔ)概念的固有理解;實(shí)踐性挑戰(zhàn)譬如說(shuō),認(rèn)為AI科技制造了新的或更嚴(yán)重的社會(huì)不公正,侵犯了人們的自由、尊嚴(yán)等重要的個(gè)體價(jià)值。

可以看到,概念性挑戰(zhàn)與實(shí)踐性挑戰(zhàn)可能關(guān)涉同一個(gè)對(duì)象,譬如說(shuō)尊嚴(yán),但即使關(guān)涉同一個(gè)對(duì)象,它們各自仍然構(gòu)成不同類型的挑戰(zhàn)。有關(guān)尊嚴(yán)的概念性挑戰(zhàn)指向的是尊嚴(yán)的性質(zhì),是要重新去界定和回答對(duì)于尊嚴(yán)的認(rèn)識(shí)和理解;有關(guān)尊嚴(yán)的實(shí)踐性挑戰(zhàn)指向的則是維護(hù)或?qū)崿F(xiàn)尊嚴(yán)的價(jià)值這件事,對(duì)尊嚴(yán)的維系和保護(hù)面臨困境,需要思考、提出并證成某個(gè)應(yīng)對(duì)的實(shí)踐方案。

(三)實(shí)踐性分析具有獨(dú)立的重要性

當(dāng)意識(shí)到存在兩種不同類型的挑戰(zhàn),我們便需要明確,本文選擇處理的是AI科技的實(shí)踐性挑戰(zhàn)。就概念性分析與實(shí)踐性分析之間的關(guān)系來(lái)說(shuō),概念性分析具有認(rèn)知上的優(yōu)先性,它也是法理學(xué)的首要工作。法理學(xué)的首要工作是概念性分析,但概念性分析并不是給法學(xué)概念下定義。從直覺(jué)上看,概念性分析與實(shí)踐性分析之間肯定存在著關(guān)聯(lián)。譬如,如何理解尊嚴(yán)通常會(huì)對(duì)如何維護(hù)和實(shí)現(xiàn)尊嚴(yán)產(chǎn)生影響:如果我們對(duì)尊嚴(yán)的理解發(fā)生了改變——不再將尊嚴(yán)與官階和貴族身份相關(guān)聯(lián),不再認(rèn)為勇氣是尊嚴(yán)最核心的構(gòu)成要素,我們對(duì)尊嚴(yán)的實(shí)踐也就相應(yīng)發(fā)生改變——不再認(rèn)可男性在求婚的競(jìng)爭(zhēng)中訴諸決斗是對(duì)尊嚴(yán)的維護(hù)。但概念性分析替代不了實(shí)踐性分析,也無(wú)法直接用做實(shí)踐問(wèn)題的答案,兩類分析具有各自的特殊性與獨(dú)立性。混用兩種分析,或者將實(shí)踐性分析還原為概念性分析,會(huì)減損分析的質(zhì)量,并落入實(shí)踐性分析最常見(jiàn)也最致命的困境:預(yù)設(shè)了真假參半因而任人打扮的事實(shí)性前提。

在明確文章所處理的挑戰(zhàn)類型的基礎(chǔ)上,接下來(lái),我們便可以審視AI科技是否構(gòu)成了實(shí)踐性挑戰(zhàn)這個(gè)問(wèn)題。如前所述,本文力圖證明,從挑戰(zhàn)的來(lái)源、挑戰(zhàn)的重要性程度、解決挑戰(zhàn)的困難性這三個(gè)維度來(lái)看,AI科技確實(shí)構(gòu)成了重大的社會(huì)挑戰(zhàn)。但面對(duì)這一重大挑戰(zhàn),學(xué)界的諸多認(rèn)識(shí)存在偏頗之處,要么夸大其詞,用想象代替現(xiàn)實(shí);要么顧左右而言他,用次要或邊緣情節(jié)代替核心的問(wèn)題焦點(diǎn),這些問(wèn)題都有必要重視與深入分析。

二、一種錯(cuò)誤的分析視角

對(duì)于AI科技造成的挑戰(zhàn),本文力圖批判的“超越論”“取代論”“解構(gòu)論”等觀點(diǎn)均共享了一個(gè)錯(cuò)誤的分析視角,這一分析視角之所以錯(cuò)誤,是因?yàn)樗氖聦?shí)性前提是虛假的。盡管建立在虛假事實(shí)性前提之上的論證是有效的,但虛假的事實(shí)性前提無(wú)法排除并非真實(shí)的概念空間,進(jìn)而使得在這些并不真實(shí)的概念空間中進(jìn)行的諸多論證既不是真的可靠,又不是真的具有說(shuō)服力。

(一)AI科技的特殊性

具體分析對(duì)AI科技社會(huì)挑戰(zhàn)的錯(cuò)誤認(rèn)知之前,需要注意,這些認(rèn)知共享了一個(gè)本文也同意的觀點(diǎn),那就是AI科技具有特殊性。AI科技最突出的不同,在于它具備了強(qiáng)大的學(xué)習(xí)能力。這種強(qiáng)大的學(xué)習(xí)能力主要表現(xiàn)在兩大方面:遠(yuǎn)超于人的記憶能力與識(shí)別能力,它能夠做到海量的記憶,并識(shí)別出對(duì)象之間的細(xì)微差異。閱讀速度是人類的一億倍,測(cè)算分析數(shù)據(jù)是人類的一萬(wàn)倍。它不會(huì)因?yàn)閿?shù)量過(guò)于龐大而像人一樣超出記憶與運(yùn)算的能力,相反,數(shù)量越龐大它的運(yùn)算便越準(zhǔn)確有效;它也不會(huì)像人一樣遺忘或混淆讀過(guò)的文獻(xiàn),它的優(yōu)點(diǎn)恰恰在于可以永不遺忘,可以迅速在海量數(shù)據(jù)之間發(fā)現(xiàn)關(guān)聯(lián)與區(qū)別。

正是因?yàn)檫@樣,AI科技迅速成為了各大研究室和科學(xué)家的輔助幫手,并被越來(lái)越多地部署在涉及復(fù)雜決策、整體決策的工作領(lǐng)域。AI科技的特殊性不僅體現(xiàn)在它的能力方面,而且體現(xiàn)在它作為工具的有效性方面:作為人類的工具,它比傳統(tǒng)的工具好用太多了。它可以在極大程度上增強(qiáng)和拓展我們的能力,幫助我們實(shí)現(xiàn)各類認(rèn)知以及實(shí)踐目標(biāo)——這里雖然不加區(qū)分地使用“我們”這樣的概括性指稱,但后文將指出,在AI科技的社會(huì)應(yīng)用中,“我們”作為一個(gè)同質(zhì)化的指稱并不符合事實(shí),它只是一個(gè)慣性的、直覺(jué)式的、具有迷惑性的錯(cuò)誤用法。

AI科技是一個(gè)多好用的新工具呢?試舉一例加以說(shuō)明。根據(jù)密歇根大學(xué)羅杰·托蘭格教授的研究,因?yàn)樯鐣?huì)期許偏好等原因,人在現(xiàn)實(shí)生活中有三分之一的時(shí)間在對(duì)自己和他人撒謊。在主觀信息的調(diào)查中,除非人們跟調(diào)查者說(shuō)真話,否則傳統(tǒng)的研究根本沒(méi)有可靠方案來(lái)確保研究的真實(shí)性,但AI科技的出現(xiàn)改變了這一點(diǎn)。譬如,大數(shù)據(jù)的記錄、匯聚、梳理和對(duì)比,可以非常準(zhǔn)確地得知某個(gè)人是不是同性戀,是不是種族主義者,任憑他們?cè)鯓涌陬^否認(rèn)或故意誤導(dǎo)都無(wú)濟(jì)于事。目前的AI科技已經(jīng)可以幫助政府、商業(yè)公司、科研工作者觀察、捕捉和記錄人們掩藏在內(nèi)心的部分真實(shí)想法和秘密。

(二)人與人工智能的關(guān)系視角

正是因?yàn)槿斯ぶ悄艹尸F(xiàn)出如此強(qiáng)大的能力與功用,展示出一副擁有無(wú)限可能的遠(yuǎn)大前景,這讓越來(lái)越多的人加入不安的隊(duì)伍,以懷疑的眼光看待它,不斷反問(wèn)人與人工智能之間的關(guān)系。從不安審視的角度,在工具性的面相之外,它們似乎已經(jīng)展現(xiàn)出了“理性化”的可能。盡管還需要借助某些外觀的實(shí)體(如電腦)存在,人工智能的實(shí)質(zhì)在于它是一種虛擬機(jī)器,重要的不是它的形體,而是它能夠做的事情。用博登的話來(lái)說(shuō):它可以像程序員在寫(xiě)程序時(shí)那樣“思考”問(wèn)題,它有一套信息處理的機(jī)制,仿佛人腦一般。這種信息處理機(jī)制再輔以算法與大數(shù)據(jù),便能展開(kāi)一種深度學(xué)習(xí),進(jìn)而獲得某種程度上近似人類的分析與決策能力。倘若如此,那人工智能與人本質(zhì)上還有什么區(qū)別?人工智能的這些特殊性使得認(rèn)識(shí)和把握它帶來(lái)的挑戰(zhàn)變得困難和復(fù)雜起來(lái),也促使很多討論者選擇了“人與人工智能的關(guān)系”這一維度作為討論該科技之挑戰(zhàn)的視角。

人工智能理性化的潛力呈現(xiàn)出一幅伴有強(qiáng)烈危機(jī)感的暗淡圖景。現(xiàn)實(shí)的世界里,AlphaGo已經(jīng)戰(zhàn)勝了人類頂尖圍棋選手,人們?cè)诮柚斯ぶ悄芴嵘畹耐瑫r(shí),人工智能也在“觀察”“記錄”和“分析”著它的使用者。我們的生活在不知不覺(jué)之間已經(jīng)逐漸將部分決定權(quán)轉(zhuǎn)移給了人工智能,在不少生活場(chǎng)景中,我們似乎僅僅剩下了名義上的而且往往是一次性的同意授權(quán)。更讓人心生恐懼的是,無(wú)論同意與否,AI科技幾乎已經(jīng)無(wú)處不在,我們無(wú)法真正選擇拒絕,無(wú)法逃脫人工智能的凝視,我們幾乎每天赤身裸體地走在它的注視之下,它似乎看得到我們的底褲,看得穿我們的底色,它突破了我們構(gòu)筑的阻擋他人窺視我們隱私的物理空間。盡管我們?cè)诿x上還保有隱私的權(quán)利,但在物理空間和權(quán)利實(shí)踐的維度,隱私權(quán)已經(jīng)在技術(shù)上處于有名無(wú)實(shí)的狀態(tài)。這讓習(xí)慣了現(xiàn)代文明觀念、重視體面和隱私感的人類憂心忡忡,很難接受。

在AI科技的社會(huì)應(yīng)用高度滲透,支配了越來(lái)越多的生活場(chǎng)景之后,人們自然會(huì)追問(wèn),已然在不少方面超越了我們的AI會(huì)最終學(xué)會(huì)并全面掌握與人一樣的理性能力,進(jìn)而實(shí)現(xiàn)對(duì)人類的整體超越嗎?AI會(huì)最終取代人類并實(shí)現(xiàn)對(duì)我們的統(tǒng)治嗎?這樣的疑問(wèn)帶著非常強(qiáng)烈的“人與人工智能”相互比較的色彩,不安地審視著人與人工智能之間的區(qū)別和差距還有多少,懷疑地反問(wèn)一個(gè)會(huì)自我學(xué)習(xí)、自我反思、自我決策的工具還是不是只是人類的工具,如果不只是工具,人與人工智能之間還可以存在哪些可能的相互關(guān)系,并視這類問(wèn)題為AI科技對(duì)人類社會(huì)提出的最大挑戰(zhàn)。

(三)錯(cuò)在哪里?

但上述理解和提問(wèn)方式就回答新科技的社會(huì)挑戰(zhàn)來(lái)說(shuō)是錯(cuò)誤的。主要的原因在于,它建立在對(duì)技術(shù)的預(yù)測(cè)而非技術(shù)的現(xiàn)實(shí)的基礎(chǔ)之上。換言之,它構(gòu)筑的是一個(gè)前瞻式的遠(yuǎn)景:倘若人工智能以現(xiàn)在的態(tài)勢(shì)順利地、高速地發(fā)展下去,它有可能達(dá)到或突破某個(gè)智能狀態(tài),譬如說(shuō)它最終獲得了“自我設(shè)定目標(biāo)的能力”,然后社會(huì)的生態(tài)與人類的處境就全部改變了。達(dá)到這種發(fā)展水平的人工智能,學(xué)界稱之為“強(qiáng)人工智能”。人們認(rèn)為“強(qiáng)人工智能”可能到來(lái),并對(duì)到來(lái)之后的場(chǎng)景憂心忡忡,這種擔(dān)憂是合理的。基于這種擔(dān)憂嘗試重新審視、規(guī)劃和調(diào)整AI科技的發(fā)展可能是有裨益的,在該前瞻遠(yuǎn)景的刺激之下對(duì)人性、理性、尊嚴(yán)等概念重新進(jìn)行分析和論證也是有價(jià)值的。但是,一來(lái),人工智能能夠順利、持續(xù)、高速發(fā)展并最終取得臨界突破,這是一個(gè)科學(xué)技術(shù)層面的事實(shí)性判斷,前述擔(dān)憂建立在這一事實(shí)性判斷的基礎(chǔ)之上,這類考量的質(zhì)量便也高度依賴這一事實(shí)性判斷的可靠程度;二來(lái),就這一前瞻遠(yuǎn)景帶來(lái)的認(rèn)知沖擊來(lái)說(shuō),該沖擊的性質(zhì)并不屬于AI科技帶來(lái)的社會(huì)挑戰(zhàn),通過(guò)重新反思上述基本概念也無(wú)法算作是在把握和回應(yīng)它的社會(huì)挑戰(zhàn)。

就科技層面的事實(shí)來(lái)說(shuō),目前的人工智能無(wú)法理解因果關(guān)系,沒(méi)有直覺(jué),沒(méi)有感性能力,沒(méi)有自我意識(shí),無(wú)法提出假設(shè),無(wú)法自主選擇,離推理、想象等人類具有的高級(jí)智能能力還相距甚遠(yuǎn)。即使是從遠(yuǎn)景視角來(lái)看,就考慮AI是否可能經(jīng)由發(fā)展具備自我意識(shí)來(lái)說(shuō),僅僅要達(dá)到人腦具備的1000億個(gè)神經(jīng)元數(shù)量,按照目前的發(fā)展速度,也要至少三十年左右的時(shí)間才能讓機(jī)器的神經(jīng)網(wǎng)絡(luò)達(dá)到人腦的連接數(shù)。但“神經(jīng)元與連接數(shù)只是一個(gè)必要條件,即使達(dá)到或超過(guò)人腦的數(shù)量也未必產(chǎn)生自我意識(shí)”。根據(jù)瑞典烏普薩拉大學(xué)應(yīng)用數(shù)學(xué)系桑普特教授的研究,目前人工智能的發(fā)展程度,就其智慧能力來(lái)說(shuō),最接近的生物是肚子里的細(xì)菌。根據(jù)現(xiàn)有證據(jù),AI能模擬的智能層級(jí)和細(xì)菌差不多。

這里需要說(shuō)明的是,人工智能現(xiàn)實(shí)的智慧等級(jí)比較初步,不代表其構(gòu)不成重大社會(huì)挑戰(zhàn),不代表人類社會(huì)可以對(duì)與細(xì)菌處于同一個(gè)智力水準(zhǔn)的人工智能科技等閑視之。新冠病毒就不是什么智慧病毒,但它造成的全球危機(jī)是險(xiǎn)峻又直接的,AI科技的出現(xiàn)與應(yīng)用也是同樣的道理:它不需要多么智慧、多么高級(jí)自主,就可以也已經(jīng)深刻地塑造和改變了整個(gè)世界。重新回到人工智能的技術(shù)現(xiàn)實(shí)上來(lái),尊重科技發(fā)展的技術(shù)事實(shí),在技術(shù)事實(shí)的現(xiàn)實(shí)與前瞻視角之中,人類還有非常長(zhǎng)的一段時(shí)間是唯一擁有人類智能的物種,至少就未來(lái)五十年來(lái)說(shuō),強(qiáng)人工智能的出現(xiàn)還不具有現(xiàn)實(shí)的可能性。也正因如此,以“人與人工智能的關(guān)系”用作分析AI科技之社會(huì)挑戰(zhàn)的視角也就被抽掉了堅(jiān)實(shí)的基礎(chǔ),主要剩下概念思辨的意義。如果做概念分析,欠缺現(xiàn)實(shí)基礎(chǔ)并不必然構(gòu)成分析的缺陷,因?yàn)楦拍罘治隹梢悦撾x現(xiàn)實(shí)的束縛,以預(yù)設(shè)的條件或某個(gè)理想情境作為分析的前提;但在實(shí)踐分析中,對(duì)社會(huì)挑戰(zhàn)的立論與說(shuō)明高度依賴現(xiàn)實(shí)性描述的準(zhǔn)確性與可靠程度,虛假的事實(shí)性前提會(huì)過(guò)寬地且不當(dāng)?shù)赝卣估碚撜J(rèn)知的概念空間,進(jìn)而損傷相關(guān)論證的質(zhì)量。

與三、五十年間也無(wú)法出現(xiàn)的強(qiáng)人工智能所可能造成的挑戰(zhàn)相比,現(xiàn)有的人工智能已經(jīng)實(shí)實(shí)在在走進(jìn)了我們的生活,對(duì)個(gè)體和共同生活制造著切實(shí)的影響。我們的生活正在被人工智能科技塑造著,也由此帶來(lái)了重要性程度上絕不應(yīng)忽視的道德困境,構(gòu)成了下文將具體展開(kāi)證明的大挑戰(zhàn),急迫地要求我們?cè)谡J(rèn)知上做出實(shí)踐性的分析與回應(yīng)。之所以這些道德困境構(gòu)成的挑戰(zhàn)可以被歸諸現(xiàn)有的人工智能技術(shù),是基于該技術(shù)內(nèi)置的社會(huì)屬性。下文先完成對(duì)其社會(huì)屬性的說(shuō)明,再在此基礎(chǔ)上闡述該技術(shù)的社會(huì)挑戰(zhàn)是什么。

三、個(gè)人數(shù)據(jù)與AI科技的社會(huì)屬性

回到現(xiàn)有“弱人工智能”應(yīng)用的技術(shù)特征,作為一種信息處理、應(yīng)用的機(jī)制,弱人工智能的社會(huì)屬性主要體現(xiàn)在兩方面。一是,這種信息處理的機(jī)制受制于并反映現(xiàn)實(shí)社會(huì)的道德境況,AI科技可以說(shuō)是所在社會(huì)的道德鏡像;二是,這種信息處理的機(jī)制廣泛應(yīng)用于社會(huì)各個(gè)領(lǐng)域,被用作實(shí)現(xiàn)各類目的的手段,AI科技可以說(shuō)是所在社會(huì)的工具媒介。

(一)AI科技的道德鏡像屬性

主張AI科技是所在社會(huì)的道德鏡像,反映了所在社會(huì)的道德境況,該主張立基于以下幾個(gè)技術(shù)現(xiàn)實(shí)。

第一,AI科技作為一種信息處理機(jī)制,它的運(yùn)作建立在收集來(lái)的由個(gè)人信息匯聚而成的大數(shù)據(jù)之上,而大數(shù)據(jù)本身要么不是道德中立的,很多數(shù)據(jù)是對(duì)信息主體價(jià)值偏好的收集;要么受到了現(xiàn)有社會(huì)分配結(jié)構(gòu)的渲染。

譬如,當(dāng)美國(guó)的警察局將人工智能技術(shù)部署于犯罪預(yù)測(cè)與刑事執(zhí)法,人工智能的有效運(yùn)算便需要采集該地區(qū)過(guò)去的犯罪信息、種族信息、學(xué)歷信息、性別信息等等進(jìn)行數(shù)據(jù)化,并在分析相關(guān)數(shù)據(jù)的基礎(chǔ)上得出預(yù)測(cè)性的或決策性的結(jié)論。學(xué)界已有大量的研究表明,美國(guó)的刑事實(shí)踐呈現(xiàn)著嚴(yán)重的種族不公正的事實(shí)結(jié)構(gòu),這個(gè)不公正的執(zhí)法結(jié)構(gòu)的量化表達(dá)便體現(xiàn)為各種數(shù)據(jù)。換言之,不公正的社會(huì)結(jié)構(gòu)會(huì)生產(chǎn)不公正的數(shù)據(jù),對(duì)歷史執(zhí)法信息的收集所得到的數(shù)據(jù)本身是有失公正的,帶著種族歧視的偏見(jiàn),呈現(xiàn)著某一種族、某一社區(qū)區(qū)域被過(guò)度刑事執(zhí)法的事實(shí)。這些事實(shí)作為人工智能分析的數(shù)據(jù)會(huì)引導(dǎo)人工智能進(jìn)一步得出帶有偏見(jiàn)的預(yù)測(cè)結(jié)論。進(jìn)一步得出帶有偏見(jiàn)結(jié)論的人工智能既是對(duì)現(xiàn)有不公正的執(zhí)法結(jié)構(gòu)的反映,又會(huì)對(duì)現(xiàn)有的結(jié)構(gòu)性不公產(chǎn)生進(jìn)一步的疊加影響。

以美國(guó)佛羅里達(dá)州布勞沃德縣的刑事執(zhí)法實(shí)踐為例。自2008年開(kāi)始,布勞沃德縣采用Northpointe公司開(kāi)發(fā)的算法程式COMPAS對(duì)犯罪嫌疑人的人身危險(xiǎn)性與再犯可能性進(jìn)行測(cè)評(píng)打分,以幫助確定哪些人需要入監(jiān)收押,哪些人可以保釋。根據(jù)朱莉婭·安格溫(Julia Angwin)與杰夫·拉森(Jeff Larson)等學(xué)者的研究,Northpointe測(cè)評(píng)打分的結(jié)果很遺憾地呈現(xiàn)了以下的結(jié)構(gòu):在所有的犯罪嫌疑人當(dāng)中,被算法標(biāo)記為高危險(xiǎn)性但其實(shí)并沒(méi)有再犯罪的非洲裔美國(guó)人高達(dá)44.9%,與此相對(duì),標(biāo)記為高危險(xiǎn)性但不再犯的白人只有23.5%;標(biāo)記為低危險(xiǎn)性卻再次犯罪的白人有47.7%,與此相對(duì),標(biāo)記為低危險(xiǎn)性卻再犯罪的非洲裔美國(guó)人只有28%。這樣的算法評(píng)測(cè)結(jié)果顯示,算法更偏好白人,更傾向于做出不利于非裔的結(jié)論。可以看到,這樣的算法結(jié)果是對(duì)布勞沃德縣以往刑事執(zhí)法中存在的種族不平等問(wèn)題的呈現(xiàn),這樣的算法應(yīng)用也進(jìn)一步維系和加深著既有的執(zhí)法不公,并沒(méi)有像我們直覺(jué)想象的那樣,以為應(yīng)用算法會(huì)提升刑事執(zhí)法的公正水平。

第二,AI科技作為一種信息處理機(jī)制,其處理數(shù)據(jù)分析的算法本身也具有非中立性。現(xiàn)階段的人工智能既不能自主地理解因果關(guān)系,又不能自主地選擇或者預(yù)先設(shè)定算法所依賴的核心概念與變量。事實(shí)上,是程序開(kāi)發(fā)者或數(shù)據(jù)科學(xué)家在對(duì)相關(guān)的概念進(jìn)行選擇和界定,這樣的初步設(shè)定使得算法無(wú)法擺脫程序開(kāi)發(fā)者或擁有者的主觀偏好,隱默地內(nèi)嵌著社會(huì)價(jià)值觀點(diǎn)的渲染。在這個(gè)議題上,關(guān)鍵的問(wèn)題不是人們常說(shuō)的程序開(kāi)發(fā)者的控制或人工智能算法黑箱的問(wèn)題。就程序開(kāi)發(fā)者與數(shù)據(jù)科學(xué)家的控制來(lái)說(shuō),即使再公正再高超再努力的科學(xué)家也無(wú)法完全預(yù)測(cè)或控制算法,這不是說(shuō)算法很智能,很不好控制,而是說(shuō)大數(shù)據(jù)運(yùn)算本身帶有隨機(jī)性與一定程度的不可理解性,再加上科學(xué)家無(wú)法擺脫自身的主觀偏好,無(wú)法根除算法初步設(shè)置中的非中立狀態(tài);就算法黑箱的問(wèn)題來(lái)說(shuō),人腦的運(yùn)算也是黑箱的狀態(tài),這一狀態(tài)本身不是要求矯正人腦運(yùn)算的充分理由,算法的完全透明化與要求人腦運(yùn)算的透明化一樣,幾乎是不可能的。盡管這些并不意味著科學(xué)家不需要努力提升和規(guī)訓(xùn)算法,也不意味著算法不需要滿足合理的公開(kāi)、透明等要求。

對(duì)此,一個(gè)常見(jiàn)的主張是說(shuō),要對(duì)算法進(jìn)行技術(shù)上的修正和完善,以及,要加強(qiáng)技術(shù)外的規(guī)范與約束。本文想指出,技術(shù)內(nèi)外的應(yīng)對(duì)和完善是必要的,但這樣的應(yīng)對(duì)策略存在一個(gè)誤區(qū),即以為人工智能不公的問(wèn)題主要是個(gè)技術(shù)性、科學(xué)性的問(wèn)題,也主要應(yīng)當(dāng)通過(guò)技術(shù)性、科學(xué)性的方法來(lái)解決。這種應(yīng)對(duì)策略之所以錯(cuò)誤,是因?yàn)樗鲆暳巳斯ぶ悄芩鶓?yīng)用的目標(biāo)社會(huì)其自身的公正狀況對(duì)新信息科技應(yīng)用的決定性影響,忽視了人工智能不公的社會(huì)屬性。用朱迪亞·帕爾的話來(lái)說(shuō):“因果問(wèn)題無(wú)法只依靠數(shù)據(jù)而得到解答,……解釋數(shù)據(jù)意味著要對(duì)真實(shí)的世界是如何運(yùn)作的進(jìn)行把握。”可以這樣說(shuō),任憑人工智能技術(shù)如何高速發(fā)展,都無(wú)法否認(rèn)人工智能技術(shù)應(yīng)用的非中立屬性。倘若現(xiàn)有的實(shí)踐中,修正得再完善的算法也會(huì)帶有特定主體的事實(shí)想象與道德信念,就像數(shù)據(jù)自身帶有的價(jià)值立場(chǎng)使得算法處理的數(shù)據(jù)自身存在好壞之分一樣,算法偏見(jiàn)、算法不公的問(wèn)題就是人工智能應(yīng)用中的一個(gè)技術(shù)事實(shí),呈現(xiàn)和承受著現(xiàn)實(shí)世界的道德境況與影響。

(二)AI科技的社會(huì)工具屬性

AI科技的社會(huì)屬性還體現(xiàn)在它的工具屬性之上。AI科技是社會(huì)主體實(shí)現(xiàn)各自目的的手段,是不同主體之間交往、博弈的工具,這一判斷作為事實(shí)判斷同樣建立在社會(huì)實(shí)踐的可驗(yàn)證性之上。

就人工智能被工具化并帶來(lái)不確定的社會(huì)影響進(jìn)行列舉:人工智能這件事本身既可以被諸如美國(guó)政府拿來(lái)用作博弈、限制高新科技企業(yè)的事由,又可以被用作重返或推動(dòng)計(jì)劃經(jīng)濟(jì)的手段,還可以被用來(lái)實(shí)現(xiàn)監(jiān)控、維穩(wěn)等社會(huì)、政治目標(biāo);又能夠被美團(tuán)用來(lái)擠壓市井?dāng)傌湹慕?jīng)營(yíng)空間,既可以被部署來(lái)抓捕罪犯,又可以用于犯罪,還有人試圖以之提升學(xué)生上課的效率與質(zhì)量,抑或用于識(shí)別同性戀或進(jìn)行心理治療,等等。總之,人工智能可以被用作各種想象得到和想象不到的目的,以媒介的方式影響和塑造著人際交往與共同體的道德境況。需要補(bǔ)充交待的是,盡管人工智能作為工具媒介發(fā)揮著功用,但與以往不同的一個(gè)情形是:以往倘若產(chǎn)生損害,工具本身是絕緣于責(zé)任的,責(zé)任歸溯至工具的使用者。但在人工智能應(yīng)用的情境之中,因?yàn)槎喾N原因,作為工具的人工智能本身是否依舊絕緣于責(zé)任變得模糊起來(lái),同時(shí)還使得工具使用者的責(zé)任也模糊起來(lái)。這主要是因?yàn)椋斯ぶ悄芗夹g(shù)應(yīng)用具有新穎性與特殊性,既有的法律治理體系有一個(gè)利益競(jìng)爭(zhēng)、規(guī)范調(diào)整和實(shí)踐試錯(cuò)的不確定期,在此期間,法律責(zé)任與人工智能的創(chuàng)造者、支配者以及使用者之間的聯(lián)結(jié)通常被懸置了起來(lái)。

回到人工智能的社會(huì)屬性。由上可見(jiàn),如果人工智能技術(shù)的應(yīng)用本身就會(huì)承載和反映現(xiàn)有社會(huì)的道德境況,也會(huì)影響和塑造個(gè)體與共同生活的道德境況,那么人工智能就會(huì)帶來(lái)可以歸諸于它的挑戰(zhàn)。此外,正如上文已經(jīng)闡明的,人工智能帶來(lái)的這些挑戰(zhàn)不適合采取“人與人工智能的關(guān)系”的分析視角去審視和回答人與人工智能之間現(xiàn)有的以及可能的相互關(guān)系,而是應(yīng)該采取“智能系統(tǒng)沖擊下的人際關(guān)系維度”的分析視角去審視和回答人工智能如何改變了我們的共同生活,制造了怎樣的實(shí)踐困境,我們又應(yīng)當(dāng)如何努力做出恰當(dāng)?shù)膽?yīng)對(duì)等等,以此確保人工智能是在促就更加公正的社會(huì)和更加自主、美好的個(gè)人生活,而不是相反。

四、雙重不對(duì)稱性難題

當(dāng)我們的視角終于回到“人工智能沖擊之下的人際關(guān)系”,我們便能直面以下問(wèn)題:人工智能技術(shù)給社會(huì)帶來(lái)了怎樣的變化,在其中誰(shuí)得到了裨益,誰(shuí)受到了損失,這樣的得失之間怎樣的道德困境最為緊要?本文力圖主張,人工智能科技沖擊形成的最重要的道德困境是制造了雙重不對(duì)稱性難題,在事實(shí)層面改寫(xiě)了權(quán)力正當(dāng)性的結(jié)構(gòu),改變了和持續(xù)改變著政治社群實(shí)質(zhì)上的共同生活樣態(tài)。

(一)多重現(xiàn)實(shí)描述的困境

基于回溯視角的特性,這里的重點(diǎn)在于分析AI科技的挑戰(zhàn)而非貢獻(xiàn)。常見(jiàn)的主流認(rèn)知是肯定AI科技的重要性以及它的積極意義,與慣常的類似理解不同,近年來(lái)有重要的研究指出,AI科技的重要性還在于它現(xiàn)實(shí)上以及可能帶來(lái)的社會(huì)風(fēng)險(xiǎn)與危害。人們逐漸意識(shí)到,人工智能科技帶來(lái)的不一定是高效率,不一定是專業(yè)性,也不一定是中立性和公正。以美國(guó)斯坦福醫(yī)療中心最近的一次公共事故為例。2020年年底,美國(guó)的疫情居高不下,美國(guó)FDA經(jīng)過(guò)安全專家委員會(huì)的表決,批準(zhǔn)了輝瑞公司與德國(guó)BioNTech公司共同研發(fā)的新冠病毒疫苗的緊急使用授權(quán),斯坦福醫(yī)療中心首批分到了5000支疫苗。如何分配這5000支疫苗呢?斯坦福醫(yī)療中心決定借助算法來(lái)實(shí)現(xiàn)這一稀缺醫(yī)療資源的分配,以期最高效也最公正地實(shí)現(xiàn)醫(yī)療利益的最大化。但算法給出的分配方案非常令人震驚:5000支疫苗中只分配了7支給一線醫(yī)護(hù)人員。這迅速引起了強(qiáng)烈的抗議,壓力之下,院方出面道歉并承諾更改分配方案。類似這樣的例證每天都在很多地方出現(xiàn),使得人們?cè)桨l(fā)以疑惑和審慎的眼光看待AI科技。

AI科技不只是令人疑惑,它也令人擔(dān)憂。這種擔(dān)憂主要不是擔(dān)心人工智能是不是人,有沒(méi)有可能超越或統(tǒng)治我們,而是指向人工智能科技應(yīng)用造成的社會(huì)困境與隱患。想要清楚又全面地呈現(xiàn)這些困境與隱患是困難的,因?yàn)樗婕暗胶芏鄬哟闻c面向,彼此之間似乎也沒(méi)有統(tǒng)一性可言。

以AI科技中發(fā)展迅猛的人臉識(shí)別技術(shù)應(yīng)用為例。第一,人臉識(shí)別的技術(shù)發(fā)展非常迅速,其應(yīng)用門(mén)檻也很低,任何能夠安置普通攝像頭的介質(zhì)都可以用作采集人臉信息的傳感器,理論上以非常低的成本就可以實(shí)現(xiàn)對(duì)不特定主體人臉生物信息的采集,這樣的科技不僅很難封鎖,而且很容易被濫用;第二,正是因?yàn)橹恍枰邆淇梢猿上竦膫鞲衅髟偌由厦娌孔R(shí)別的軟件和算法就可以遠(yuǎn)距離采集和應(yīng)用人臉信息,這類技術(shù)應(yīng)用具備了非接觸的特質(zhì),從而使得對(duì)人臉生物信息的采集可以靜默無(wú)聲,在技術(shù)上不再需要被采集主體的授權(quán)或同意,排除了對(duì)象的積極參與,如果不明確告知,被采集人甚至不知道臉紋被掃描了的事實(shí);第三,人臉信息的獲取在人工智能時(shí)代結(jié)合大數(shù)據(jù)分析,可以做到對(duì)臉紋主體的深度掃描與刻畫(huà),提供臉紋就意味著提供了臉紋主體的身份信息、家族信息、性別信息、種族信息、性取向信息、資產(chǎn)信息、醫(yī)療信息、心理偏好信息、人格特質(zhì)信息等等,人臉識(shí)別技術(shù)的應(yīng)用可以讓被采集的對(duì)象成為透明人,隱私雖然在規(guī)范的維度還存在,但在技術(shù)上可以被消解。

上述三點(diǎn)對(duì)應(yīng)的每一個(gè)問(wèn)題都很嚴(yán)重,都不太容易被AI科技應(yīng)用帶來(lái)的好處所遮蓋。那么,如何能夠更好地歸納和理解這些困境與隱患,以便準(zhǔn)確把握挑戰(zhàn)的核心呢?如上文所說(shuō),人工智能的問(wèn)題不可能僅僅通過(guò)科學(xué)的方式獨(dú)自加以解決,因?yàn)槿斯ぶ悄鼙磺吨迷谏鐣?huì)生活之中,受到社會(huì)公正結(jié)構(gòu)與道德境況的影響,因此,重要的便是審視人工智能嵌入社會(huì)關(guān)系網(wǎng)絡(luò)之后怎樣改變了主體間的交往狀態(tài)。對(duì)此,本文主張,不對(duì)稱性(asymmetry)是一個(gè)適當(dāng)?shù)母拍罟ぞ摺?

(二)不對(duì)稱性作為分析概念

還是以人臉識(shí)別技術(shù)應(yīng)用為例,回到上述列舉的問(wèn)題,我們可以看到:第一,技術(shù)的開(kāi)發(fā)者與應(yīng)用者之間存在著不對(duì)稱性。盡管技術(shù)的普及使得技術(shù)運(yùn)用的門(mén)檻降低,但技術(shù)的使用者如政府部門(mén)與技術(shù)的開(kāi)發(fā)者如科技公司之間的交往結(jié)構(gòu)是不對(duì)稱的。這意味著圍繞技術(shù)的開(kāi)發(fā)與應(yīng)用,政府部門(mén)與科技公司之間存在著或競(jìng)爭(zhēng)或合作的關(guān)系,但就技術(shù)本身來(lái)說(shuō),是科技公司占據(jù)著不對(duì)稱性的優(yōu)勢(shì),與之相對(duì),政府的不對(duì)稱優(yōu)勢(shì)在于它的政策與執(zhí)法功能;第二,技術(shù)的應(yīng)用者與用戶之間也存在著不對(duì)稱性。無(wú)論人臉識(shí)別技術(shù)的應(yīng)用者是科技公司、政府部門(mén)還是其他社會(huì)主體,技術(shù)應(yīng)用的屬性使得采集者與被采集者之間的權(quán)能結(jié)構(gòu)是不對(duì)稱的,如上所述,被采集者甚至不知道自己的生物信息被掃描了的事實(shí)。此外,就應(yīng)用者與用戶之間的權(quán)益結(jié)構(gòu)關(guān)系來(lái)說(shuō),也是高度不對(duì)稱的。一次給出臉紋,在技術(shù)上便等于終身給出了個(gè)體生物信息。并且,現(xiàn)實(shí)生活中同意面部識(shí)別大多只是為了便捷的目的,也許在日常能夠直接感知的范圍內(nèi)確實(shí)提升了便捷度,但商業(yè)機(jī)構(gòu)與政府部門(mén)借此可以獲得的裨益卻是高度不對(duì)稱的。個(gè)體實(shí)際交出去的并脫離自己掌控的綜合信息不僅對(duì)應(yīng)著不成比例的商業(yè)收益,而且可能意味著自由度與自主性的減損。由此可見(jiàn),AI科技引致的諸多困境似乎都可以經(jīng)由“不對(duì)稱性”概念得到妥當(dāng)?shù)恼f(shuō)明。

在進(jìn)一步闡述AI科技帶來(lái)的不對(duì)稱困境之前,有必要停下來(lái)做幾點(diǎn)概念與事理上的澄清。第一,不對(duì)稱性指向的是這樣一種狀態(tài):本來(lái)被理解為性質(zhì)上相同或?qū)Φ龋蛘邩?gòu)成一對(duì)恰當(dāng)范疇的兩個(gè)對(duì)象,事實(shí)上處在性質(zhì)上不同或不對(duì)等或者并不當(dāng)然恰當(dāng)匹配的狀態(tài)。譬如說(shuō),責(zé)難與贊賞通常被理解為一組對(duì)稱概念,但有學(xué)者指出,事實(shí)上它們是不對(duì)稱的,責(zé)難在功能上要遠(yuǎn)比贊善來(lái)得豐富與深刻。同樣,有不少倫理學(xué)學(xué)者表明,善與惡、好與壞、快樂(lè)與痛苦在道德上其實(shí)是不對(duì)稱的,對(duì)它們進(jìn)行量化衡量和比較在根本上是行不通的。不僅道德領(lǐng)域是這樣,而且政治與法律領(lǐng)域也是這樣,例如,布魯姆教授指出,同樣是歧視,但在美國(guó)歧視黑人與歧視白人是不對(duì)稱的,它們是性質(zhì)不同的兩個(gè)事件。

第二,不對(duì)稱性本身并不必然是不好的、道德上錯(cuò)的,換言之,不對(duì)稱性并不必然是道德性的,具有道德性的不對(duì)稱性也不必然就構(gòu)成道德困境。一般而言,理科生比文科生更會(huì)維修電器,更擅長(zhǎng)動(dòng)手,有更強(qiáng)的生存能力,他們之間也可以說(shuō)是不對(duì)稱的,但這種不對(duì)稱并不是不道德的。同理,科學(xué)家比普通人更會(huì)編程,在AI科技的開(kāi)發(fā)與研究上具有很強(qiáng)的不對(duì)稱優(yōu)勢(shì),這本身是不需要也不應(yīng)當(dāng)被矯正的。

第三,現(xiàn)代社會(huì)的共同生活中既存在著相互性關(guān)系,又存在著互惠性關(guān)系,但相互性不等于互惠性。在科技公司與用戶所締結(jié)的契約關(guān)系之中,他們之間存在著道德性的相互關(guān)系,但權(quán)責(zé)、利益的分配卻可能是高度不對(duì)稱的,用戶以極大的付出獲得的只是極少的裨益,在政府與公民的相互性關(guān)系之中也可能是這樣。在這一維度,人工智能既有可能是朝強(qiáng)勢(shì)一方增進(jìn)不對(duì)稱性,也有可能是朝弱勢(shì)一方增進(jìn)不對(duì)稱性,還有可能是調(diào)和了原有的不對(duì)稱性,當(dāng)然也可能是多種程度多種方向的增進(jìn)與調(diào)和的交織。AI科技帶來(lái)的困境與機(jī)遇并存,但現(xiàn)有人類社會(huì)的不公正結(jié)構(gòu)往往使得AI科技制造困境的現(xiàn)實(shí)性要整體上蓋過(guò)它帶來(lái)積極裨益的可能性。

AI科技引致的不對(duì)稱困境究竟應(yīng)當(dāng)怎么把握?倘若科技公司的技術(shù)優(yōu)勢(shì)構(gòu)成的不對(duì)稱性并不必然屬于需要矯正的道德問(wèn)題,何以AI科技依舊帶來(lái)了社會(huì)大挑戰(zhàn)?下文依次從一階行動(dòng)維度與二階結(jié)構(gòu)維度予以闡述。

(三)一階與二階不對(duì)稱性困境

從一階行動(dòng)的維度來(lái)說(shuō),相較于普通用戶,各大科技公司與政府部門(mén)整體上是占據(jù)不對(duì)稱優(yōu)勢(shì)的強(qiáng)勢(shì)主體。無(wú)論是科技公司還是政府部門(mén),都在事實(shí)上使得原先的不對(duì)稱優(yōu)勢(shì)演變成了需要矯正的道德困境,或者具備了觸發(fā)這些道德困境的高度可能性。

第一,對(duì)于科技公司來(lái)說(shuō),首先,認(rèn)知與科技優(yōu)勢(shì)并不必然是負(fù)道德性的,但倘若科技公司將這些不對(duì)稱的技術(shù)優(yōu)勢(shì)用在與普通用戶形成的各類相互性關(guān)系之中,就可能借助不對(duì)稱的優(yōu)勢(shì)謀取超額利潤(rùn),或者利用技術(shù)上的能力突破用戶在規(guī)范上的隱私權(quán)、知情權(quán)、決定權(quán)等基本權(quán)利,若如此,技術(shù)上的不對(duì)稱性便不當(dāng)?shù)亟槿肟萍脊九c用戶之間的關(guān)系,演變成需要糾正的道德困境。其次,高科技公司主導(dǎo)的AI科技迅猛發(fā)展,使得很多商業(yè)公司的運(yùn)作越來(lái)越人工智能化,不僅商業(yè)行為而且整個(gè)社會(huì)的消費(fèi)行為與生活方式也越來(lái)越人工智能化,在某種宏觀視野下,可以說(shuō),是高科技公司在決定、塑造和培養(yǎng)著我們的交往方式與生活選項(xiàng),強(qiáng)化著我們對(duì)新信息科技的依賴。基于AI科技的特性,這種塑造是大規(guī)模的、精準(zhǔn)的和隱默的,往往體現(xiàn)的是高科技公司的商業(yè)邏輯與利益意志,整個(gè)框架是基于便利于它們行動(dòng)和利益最大化的目標(biāo)設(shè)置的。

第二,對(duì)于政府部門(mén)來(lái)說(shuō),整體上AI科技的迅猛發(fā)展不成比例地提升了政府的認(rèn)知能力、管控能力,使得權(quán)力的觸角無(wú)遠(yuǎn)弗屆,這一發(fā)展本身便構(gòu)成并加重了公共生活中不對(duì)稱的道德困境。

首先,當(dāng)下以及未來(lái)公共服務(wù)的提供和保障都需要公民向政府這一最大的公共服務(wù)提供者持續(xù)地提供自身的信息數(shù)據(jù),并保持這些信息數(shù)據(jù)的更新。即使在公民不感知的情況下這一切也在有序地推進(jìn),這讓政府具備了在技術(shù)上實(shí)現(xiàn)對(duì)公民進(jìn)行全方位了解和監(jiān)控的可能,并借此獲得更為強(qiáng)盛的政治權(quán)力。政府很難抵制這種讓權(quán)力“全知全能”化的誘惑,美國(guó)政府開(kāi)發(fā)和部署“棱鏡計(jì)劃”以及“上游收集計(jì)劃”就是一個(gè)例證。

其次,借助信息新科技,政府已經(jīng)可以做到強(qiáng)力貫徹執(zhí)行法律與政策,往往也有動(dòng)力使用“AI科技+刑法”的組合去治理社會(huì)。不像從前,如今一點(diǎn)小錯(cuò)都有可能受到嚴(yán)懲,本來(lái)的民事案件、行政案件都可能刑事化,現(xiàn)代社會(huì)整體治理結(jié)構(gòu)的泛刑罰化是人工智能時(shí)代高效、便捷生活的另一個(gè)面向。但法律不應(yīng)當(dāng)也不可以以強(qiáng)制的方式貫徹到底,法律之治的一個(gè)居于核心地位的典型特征就是它的“自我應(yīng)用性”:絕大多數(shù)法律不需要觸發(fā)保障機(jī)制就被絕大多數(shù)民眾自覺(jué)遵守了。這是因?yàn)椋藗兪蔷邆鋵?shí)踐理性能力因而具有尊嚴(yán)的生命,他們對(duì)自己的生活能夠進(jìn)行自我控制、自我反思,能夠理解法律規(guī)范并據(jù)此決定自己的行動(dòng)。借助AI科技將法律落實(shí)到底,讓違法違規(guī)無(wú)所遁形,則會(huì)與法律之治的這一典型特征相沖突。這也是為什么即使技術(shù)上可行,現(xiàn)實(shí)中高度可能,大多數(shù)國(guó)家也要盡力對(duì)借助AI科技武裝刑事執(zhí)法以治理社會(huì)的做法表達(dá)謙抑的重要原因。

再次,人工智能提高政府辦事效率這件事并不當(dāng)然構(gòu)成優(yōu)勢(shì),仍有可能加重了共同體的道德困境。一個(gè)重要的原因在于,早在人工智能技術(shù)成熟之前,現(xiàn)代社會(huì)就已經(jīng)有了許多方法可以讓政府的行動(dòng)變得快捷又高效,但法律創(chuàng)設(shè)的核心指向之一就是刻意降低政府的效率,讓政府的行動(dòng)慢下來(lái)。為政府實(shí)現(xiàn)職責(zé)目標(biāo)設(shè)立很多“規(guī)矩”與“限制”,這是現(xiàn)代社會(huì)組織、運(yùn)作的基本法則。只是,頂著進(jìn)步的光環(huán),政府已經(jīng)在很大程度上打破了這一基本法則,使得法治的面向越來(lái)越復(fù)雜、陌生。

第三,對(duì)于普通民眾來(lái)說(shuō),他們?cè)谛袆?dòng)的維度上也陷入了多重的道德困境。首先,普通民眾內(nèi)部是分化的,不對(duì)稱的,不僅與科技公司、政府部門(mén)無(wú)法并稱“我們”,而且在其內(nèi)部,簡(jiǎn)單的、同構(gòu)的“我們”也不存在。他們中的大部分人逐步順應(yīng)了新的、被給定的生活框架,還有一部分人則不太跟得上這個(gè)新世界。這部分落伍者的處境就比較依賴所在社會(huì)原有社會(huì)結(jié)構(gòu)與道德境況的良善與穩(wěn)健程度,依賴于所在社會(huì)的糾偏與矯正能力。在普通民眾內(nèi)部,AI科技應(yīng)用生產(chǎn)著不對(duì)稱的收益與損害分布,但利益受損的群體往往也是消失在社會(huì)公眾視野中的或話語(yǔ)能力比較低的那群人。在現(xiàn)代社會(huì),不被知曉與關(guān)注,通常就進(jìn)入不了共同體的議事日程,不公的狀況就容易被忽視、被延續(xù)、被惡化。

其次,AI科技帶來(lái)了普通民眾之間信息繭房、另類事實(shí)、群體抱團(tuán)、封閉自足、對(duì)抗敵視等問(wèn)題,這些問(wèn)題集中在普通民眾交往所形成的公共生活之中,將更為強(qiáng)烈地凸顯出社會(huì)寬容或社會(huì)自由的問(wèn)題。密爾在《論自由》中開(kāi)創(chuàng)性地提出了“社會(huì)自由”的概念,闡述了公共輿論對(duì)個(gè)性可能的不當(dāng)壓制。這過(guò)去了不過(guò)一百六十多年,AI科技的普及與應(yīng)用已經(jīng)讓密爾最大的擔(dān)憂變成了社會(huì)現(xiàn)實(shí):社會(huì)寬容變得越來(lái)越困難,個(gè)體的一切言行均有跡可查,在政治正確和道德正確的框架之下,觀念表達(dá)的豁免性已全面讓位于實(shí)質(zhì)審查,并對(duì)應(yīng)著工作以及社會(huì)認(rèn)可等方面權(quán)益的不當(dāng)剝奪,“社會(huì)性死亡”已經(jīng)以其不確定性、不可預(yù)知性、難以補(bǔ)救性等特征參與構(gòu)筑了當(dāng)今社會(huì)的公共生活。的確,現(xiàn)有的AI科技也可以在這個(gè)泛政治正確的時(shí)代被部署、應(yīng)用于維護(hù)和促進(jìn)社會(huì)寬容,譬如,美國(guó)佛羅里達(dá)州圣彼德斯堡的非營(yíng)利性機(jī)構(gòu)波因特研究所(Poynter Institute)就開(kāi)發(fā)出了PolitiFact網(wǎng)站,應(yīng)用AI科技進(jìn)行事實(shí)查證,以盡力化解政治人物的虛假言論對(duì)普通民眾產(chǎn)生的不當(dāng)影響,破解群眾斗群眾的社會(huì)困境。盡管如此,但普通民眾所處的整體上對(duì)其不利的一個(gè)結(jié)構(gòu)性社會(huì)現(xiàn)實(shí)是:暫且不談不斷強(qiáng)化的認(rèn)知偏好的束縛,他們既缺乏自行鑒別與查證的能力,又缺乏追蹤與更新的時(shí)間和精力。

此外,本文還要簡(jiǎn)要提及普通民眾面臨的另一層無(wú)力單方面化解的技術(shù)困境:元數(shù)據(jù)牢籠。很多人存在一個(gè)直覺(jué)式的誤解,以為人工智能時(shí)代重要的是確保社會(huì)交往的內(nèi)容不被不經(jīng)允許地觀察、記錄、分析,如我們的購(gòu)物車?yán)镔I(mǎi)了哪些東西,在短信和電話里說(shuō)了什么,某天在哪里見(jiàn)了誰(shuí)等等。這些確實(shí)都在發(fā)生,也并非不重要,但同樣重要的是我們的元數(shù)據(jù)(metadata)被收集、整合、分析與部署的事實(shí)。與有實(shí)質(zhì)內(nèi)容的數(shù)據(jù)相比,元數(shù)據(jù)是數(shù)據(jù)背后的數(shù)據(jù),是數(shù)據(jù)制造的數(shù)據(jù),是普通用戶感知不到的有關(guān)自身的信息,它是自動(dòng)制造的,脫離用戶掌控的,只要我們使用智能設(shè)備就無(wú)時(shí)無(wú)刻不在生產(chǎn)的。它確實(shí)不是實(shí)質(zhì)數(shù)據(jù),但假如將實(shí)質(zhì)數(shù)據(jù)比作肉身,用實(shí)質(zhì)數(shù)據(jù)畫(huà)像可以描繪出我們活生生的模樣,元數(shù)據(jù)就好比是心智,用元數(shù)據(jù)可以拼湊和測(cè)算出我們的行為模式乃至內(nèi)部世界,使得整個(gè)大數(shù)據(jù)分析既見(jiàn)樹(shù)木又見(jiàn)森林。這是無(wú)法不關(guān)注但并沒(méi)有被廣泛關(guān)注的道德困境。

二階結(jié)構(gòu)維度是一階行動(dòng)維度所處的結(jié)構(gòu)與語(yǔ)境,是一階維度何以呈現(xiàn)如此道德困境的重要原因。如果說(shuō),一階行動(dòng)維度是在新給定的生活框架之下,由新興的科技權(quán)力與新科技武裝過(guò)的政府權(quán)力對(duì)社會(huì)資源動(dòng)態(tài)分配的話,那么,二階結(jié)構(gòu)維度則是對(duì)這些分配社會(huì)資源的權(quán)力本身的分配。就政府權(quán)力的分配而言,原本建立在各種不同形式的代議制基礎(chǔ)之上的權(quán)力正當(dāng)性分配模式并沒(méi)有消失,權(quán)力的產(chǎn)生與延續(xù)還是需要得到普通民眾的認(rèn)可、同意與確認(rèn)。只是,在AI科技帶來(lái)的更為不對(duì)稱的相互性關(guān)系之下,新信息科技的運(yùn)用使得在政治權(quán)力的產(chǎn)生與延續(xù)上,普通民眾越來(lái)越可以被規(guī)劃和安排,盡管越來(lái)越多的民眾對(duì)此越來(lái)越不安,但在目前的境況之下也都無(wú)能為力。

就高科技公司的新興科技權(quán)力來(lái)說(shuō),并不存在政府權(quán)力產(chǎn)生和更替所依賴的那種分配,但無(wú)論是科技公司的政策決定所能涉及的規(guī)模、產(chǎn)生的影響,還是違背這些政策會(huì)導(dǎo)致的不利后果,都與法律的治理非常相似,甚至有過(guò)之而無(wú)不及。為了阻止澳大利亞政府通過(guò)一項(xiàng)待表決的法案,高科技巨頭Meta公司以通知的方式出臺(tái)了一項(xiàng)臨時(shí)政策,直接暫停了澳大利亞境內(nèi)所有民眾和媒體在其平臺(tái)發(fā)布“朋友圈”的權(quán)限,最終成功迫使澳大利亞政府?dāng)R置法案的進(jìn)程,并與其重新展開(kāi)談判。高科技公司憑借信息新科技掌握的這種新興能力,就其實(shí)質(zhì)而言,當(dāng)然是一種公共權(quán)力。但這種“權(quán)力”以及它發(fā)布的“命令”,形式上看仍然屬于私主體在私人領(lǐng)地發(fā)布的自家“決定”,享有既有法律體系安排之中私主體的積極行動(dòng)權(quán)利與消極豁免權(quán)利。并且,它發(fā)布影響甚廣的政策還不需要像法律那樣滿足“必須事前擬定并公布”“必須清晰”“必須確定”“必須一致”等一系列的法治要求,要求高科技公司像政府那樣確立起“依法行政”的約束框架與規(guī)范原則似乎更是無(wú)從談起。

正是在這樣的一階行動(dòng)維度與二階結(jié)構(gòu)維度之中,科技時(shí)代的不對(duì)稱難題在兩個(gè)維度都蔓延開(kāi)來(lái)。要讓民眾相信,盡管政府部門(mén)與高科技公司能夠并且事實(shí)上在收集、積累、分析他們的元數(shù)據(jù)與實(shí)質(zhì)數(shù)據(jù),但政府與高科技公司不會(huì)越過(guò)其選擇與決定權(quán),不會(huì)侵犯他們的權(quán)益,只是,如何確保并讓民眾相信這一點(diǎn)?同樣,如何讓民眾相信,AI科技的大規(guī)模部署與應(yīng)用不會(huì)強(qiáng)化社會(huì)原有的不公,不會(huì)制造新的更穩(wěn)固的階層固化,不會(huì)進(jìn)一步擴(kuò)大整個(gè)社會(huì)的貧富差距,相反,它是矯正并提升社會(huì)道德境況的希望?如何讓民眾相信,社會(huì)的人工智能化不會(huì)減損民眾對(duì)個(gè)人生活的支配,他們的人生仍然是自主的、自由的、可錯(cuò)的,個(gè)體和社會(huì)生活的人工智能化會(huì)保障這一點(diǎn),甚至可以讓人們更加自主、更加體面和有尊嚴(yán)地生活?如何讓民眾相信,AI科技介入公共生活不會(huì)罔顧個(gè)體的意志與責(zé)任而強(qiáng)行推行某種集體的利益與意志?

以上所述,即是AI科技社會(huì)應(yīng)用帶來(lái)雙重不對(duì)稱性困境之后出現(xiàn)的公共信任危機(jī)。這種信任危機(jī)的解決,有賴于認(rèn)真處理多個(gè)層次、多個(gè)面向的多個(gè)具體問(wèn)題,但整個(gè)危機(jī)的根源還是系于這個(gè)結(jié)構(gòu)性的問(wèn)題:進(jìn)入人工智能時(shí)代之后,在重新塑造的相互性關(guān)系之中,民眾是否還是他自己、他的公共生活、他的國(guó)家的主人?換言之,社會(huì)權(quán)力與國(guó)家權(quán)力是否還是來(lái)源于民眾,服務(wù)于民眾,受制于民眾?AI科技的介入之所以構(gòu)成的是社會(huì)大挑戰(zhàn)就在于,權(quán)力分配或者權(quán)力正當(dāng)性這個(gè)根源性問(wèn)題在新科技不對(duì)稱的影響之下陷入了危機(jī)之中。AI科技的研發(fā)與應(yīng)用還將繼續(xù)推進(jìn)下去,權(quán)力正當(dāng)性的危機(jī)沒(méi)有一次性的、統(tǒng)一的解決方案,更不會(huì)在短時(shí)間內(nèi)解決。在這個(gè)不對(duì)稱的、動(dòng)態(tài)的社會(huì)困境之中,無(wú)論是科技權(quán)力還是國(guó)家權(quán)力,其不對(duì)稱的性質(zhì),其強(qiáng)制的正當(dāng)性程度,都取決于應(yīng)對(duì)和處理上述危機(jī)的狀況。

五、代結(jié)語(yǔ):法理作為前共識(shí)應(yīng)對(duì)

個(gè)人信息保護(hù)為何如此特殊和重要不是沒(méi)有原因的,它恰恰是AI科技沖擊之下重塑社會(huì)結(jié)構(gòu)之后的結(jié)果。個(gè)人信息權(quán)益在人工智能時(shí)代的保護(hù)應(yīng)該朝著化解而不是堆積雙重不對(duì)稱性困境的方向進(jìn)行。在這樣的實(shí)踐語(yǔ)境之中,個(gè)人信息權(quán)益保護(hù)的應(yīng)有之義,是重申個(gè)體在人工智能時(shí)代對(duì)于自我的倫理生活和公共的道德生活的自主性。共同生活中的雙重不對(duì)稱性困境雖然是AI科技介入社會(huì)之后帶來(lái)的,但它不只是技術(shù)問(wèn)題,無(wú)法單靠技術(shù)的繼續(xù)進(jìn)步來(lái)加以解決,AI科技的應(yīng)用受制于并呈現(xiàn)著目標(biāo)社會(huì)的正義狀態(tài)與道德境況;在高科技公司與政府共同塑造的新的生活框架與分配結(jié)構(gòu)之中,民眾對(duì)這一框架結(jié)構(gòu)有著持續(xù)且漸進(jìn)的信任危機(jī),對(duì)此,高科技公司與政府擔(dān)負(fù)著重新宣誓忠實(shí)、重新贏得信任的道德與政治義務(wù);不論是科技能力的性質(zhì),還是公共責(zé)任的大小,抑或巨額利潤(rùn)的再分配或者數(shù)字稅的設(shè)置等等,這些都是共同生活之中對(duì)高科技公司的重新定位需要回答的基本問(wèn)題束;AI科技這一社會(huì)大挑戰(zhàn)對(duì)應(yīng)著大討論、大變革,在AI科技運(yùn)作著的新的生活框架之中,沒(méi)有任何人能夠真的避免或擺脫不公正的共同體結(jié)構(gòu)所帶來(lái)的或內(nèi)嵌的負(fù)面影響,共同體中的每一位成員都有重要的理由去關(guān)心和參與這一大變革。

如何應(yīng)對(duì)上述AI科技時(shí)代共同體內(nèi)部的實(shí)踐大挑戰(zhàn)呢?本文主張將“法理應(yīng)對(duì)”作為一個(gè)概括的實(shí)踐方案。法理應(yīng)對(duì)也許是重要的,我們不難列舉出它如何重要的理由,就像我們同樣可以說(shuō)“立法應(yīng)對(duì)”“政策應(yīng)對(duì)”“倫理應(yīng)對(duì)”“哲學(xué)應(yīng)對(duì)”很重要一樣,但這會(huì)消解這一實(shí)踐方案的嚴(yán)肅性與說(shuō)服力。本文的主張與全文的分析緊扣在一起,直指AI科技構(gòu)成的社會(huì)大挑戰(zhàn)的性質(zhì):這是一個(gè)法理性質(zhì)的大挑戰(zhàn),因此需要法理性的回應(yīng)方案。

具體一點(diǎn)說(shuō),它首先要與作為學(xué)術(shù)研究的法理區(qū)分開(kāi)來(lái),后者以追求真理為活動(dòng)的本質(zhì),邏輯和真值是它的生命,主張作為學(xué)術(shù)研究的法理追求共識(shí),就像主張這一活動(dòng)應(yīng)當(dāng)在不同的競(jìng)爭(zhēng)學(xué)說(shuō)之間和稀泥一樣,這類奇怪的主張是對(duì)法理專業(yè)本身的否定與消解。與之相對(duì),這里所指的是作為公共實(shí)踐的法理,它是實(shí)現(xiàn)共同體合理共識(shí)的優(yōu)質(zhì)方案。其次,之所以人工智能應(yīng)用形成的是法理挑戰(zhàn),需要法理方案,有兩大原因:一是要想妥當(dāng)說(shuō)明這一實(shí)踐挑戰(zhàn)的性質(zhì),就必須準(zhǔn)確抓取這一社會(huì)實(shí)踐之中的核心要素,它們至少是個(gè)體權(quán)利、強(qiáng)制力與合法性等,可以說(shuō)法理內(nèi)嵌于這一社會(huì)實(shí)踐之中;二是這一實(shí)踐挑戰(zhàn)所形成的實(shí)踐困境具有開(kāi)放、不確定、無(wú)法徹底解決的特征。

也正因如此,作為概括的實(shí)踐方案,公共實(shí)踐的法理無(wú)法也不應(yīng)當(dāng)化身為一種大型的決策咨詢活動(dòng),致力于給出一次性的對(duì)策建議,無(wú)論這些對(duì)策建議是立法的、政策的還是政治的。它是以對(duì)話、競(jìng)爭(zhēng)、協(xié)作等形式,呈現(xiàn)社會(huì)現(xiàn)實(shí)性與社會(huì)道德鏡像的長(zhǎng)期活動(dòng),是堅(jiān)持重塑公共信任與公共正義的不懈努力,是守住個(gè)體自主性與美好生活的持續(xù)試錯(cuò)。它追求結(jié)果意義上的成功,但結(jié)果的成功與否并不界定它的性質(zhì),也無(wú)法決定它的生命。AI科技時(shí)代的法律創(chuàng)制與實(shí)踐不應(yīng)當(dāng)被視為單純的立法、行政與司法問(wèn)題,更不是單純的利益權(quán)衡與爭(zhēng)奪,而是應(yīng)當(dāng)被視為大挑戰(zhàn)之大討論的一部分,是政治共同體真誠(chéng)實(shí)踐試錯(cuò)的一部分,需要持續(xù)地在公共法理之中接受檢驗(yàn),進(jìn)行糾錯(cuò)與革新。


(部分內(nèi)容來(lái)源網(wǎng)絡(luò),如有侵權(quán)請(qǐng)聯(lián)系刪除)
立即申請(qǐng)數(shù)據(jù)分析/數(shù)據(jù)治理產(chǎn)品免費(fèi)試用 我要試用
customer

在線咨詢

在線咨詢

點(diǎn)擊進(jìn)入在線咨詢