日日碰狠狠躁久久躁96avv-97久久超碰国产精品最新-婷婷丁香五月天在线播放,狠狠色噜噜色狠狠狠综合久久 ,爱做久久久久久,高h喷水荡肉爽文np肉色学校

睿治

智能數(shù)據(jù)治理平臺

睿治作為國內功能最全的數(shù)據(jù)治理產品之一,入選IDC企業(yè)數(shù)據(jù)治理實施部署指南。同時,在IDC發(fā)布的《中國數(shù)據(jù)治理市場份額》報告中,連續(xù)四年蟬聯(lián)數(shù)據(jù)治理解決方案市場份額第一。

ChatGPT 的運行模式、關鍵技術及未來圖景

時間:2023-02-27來源:喂你是我的瀏覽數(shù):1195

美國人工智能實驗室OpenAI 開發(fā)的人工智能聊天機器人應用ChatGPT 引發(fā)廣泛熱議,被認為是繼 互聯(lián)網(wǎng)、智能手機之后,帶給人類的第三次革命性產品。互聯(lián)網(wǎng)開辟了“空間革命”,智能手機的出現(xiàn)帶來“時間革命”,ChatGPT 的橫空出世有望形成“思維革命”,通過替代人類進行創(chuàng)作、創(chuàng)意、解答、咨詢、翻譯和客服等改變人類思考和處理問題的方式方法,由此重塑各行業(yè)生態(tài)乃至整個世界。

ChatGPT 的強大功能主要源自隱藏其背后的“巨無霸”模型——LLM。第一,這一 LLM 模型的規(guī)模必然是巨大的,有能力開發(fā)出該模型或改動該模型參數(shù)的機構較少。第二, LLM 應具備強大的自主學習能力。

ChatGPT要取得令人驚艷的效果,其背后強大的推理能力必不可少。推理能力的本質是綜合運用較多相關知識點,推導出新知識 或新結論。當模型規(guī)模足夠大時,LLM 本身就具備相應的推理能力。

ChatGPT 背后的關鍵技術離不開大模型算法、大數(shù)據(jù)和大算力。

學術界普遍認為,ChatGPT 的未來應用場景充滿無限可能。從社交媒體到廣告創(chuàng)意,從游戲到影視娛樂,從編程到深度寫稿,從平面設計到?產品工業(yè)設計,從文字翻譯到外事同聲傳譯等,?每個原本需要人類創(chuàng)作的行業(yè)都等待被 ChatGPT 顛覆性重塑。

ChatGPT 被濫用的問題愈發(fā)明顯,最常見的是作弊問題。

政策建議:一是引導企業(yè)融入 ChatGPT 浪潮。二是推動 ChatGPT 技術融入元宇宙產業(yè)布局。?三是促進 ChatGPT 技術融入數(shù)字人( Digital Human/Meta Human) 功能。四是重視ChatGPT 隱患,將其納入社會科學研究課題。

埃龍?·馬斯克稱 ChatGPT將顛覆世界;微軟公司以數(shù)百億美元投資 ChatGPT,并計劃將其整合到微軟的 Of?ce 辦公軟件和 Bing 搜索引擎之中;部?分高校和學術機構開展了關于用ChatGPT 寫論文?是否合規(guī)的大討論;還有部分咨詢公司開始擔憂是否會被其替代。2023 年,ChatGPT 的應用熱情被?點燃,應用場景不斷快速拓展。

一、ChatGPT?的運行模式

2022 年 11 月上線的ChatGPT 是由美國人工?智能實驗室 OpenAI 開發(fā)的人工智能聊天機器人應用,上線不到一周用戶就突破 100 萬,兩個月時間 吸引活躍用戶過億,打破了抖音 9 個月吸引用戶過 億的記錄,成為歷史上用戶增長速度最快的應用程序。

回顧 ChatGPT 的發(fā)展歷程可知,OpenAI自GPT?1.0 開始,就將大型語言模型( LLM,Large Language?Model)視為通往通用人工智能(AGI,Arti?cial general intelligence)的必由之路。具體而言,在 OpenAI 看來,未來的 AGI 應擁有一個與任務無關的超大型 LLM,可以從海量的數(shù)據(jù)中學習各種知識,LLM 以生成一切的方式解決各種各樣的實際問題。除此之外,AGI 能夠聽懂人類的命令,便于人類使用。

(一)幕后:大型語言模型

ChatGPT 的“無比強大”的能力主要得益于其依托的大型語言模型。盡管 ChatGPT 加入人工標?注數(shù)據(jù),但量級只有數(shù)萬,這一規(guī)模的數(shù)據(jù)量和訓練與 GPT-3.5 模型使用的幾千億級別的數(shù)據(jù)量相比 幾乎可以忽略不計,基本不會對提升 GPT-3.5 的??基礎能力發(fā)揮作用。因此,ChatGPT 的強大功能主要源自隱藏其背后的“巨無霸”模型——LLM。

對于LLM 的發(fā)展理念,可以將其理解為“構建一個任務無關的超大型 LLM,讓它從海量數(shù)據(jù)中學習各種知識”。圖1展示了大型語言模型LLM。第一,這一LLM 模型的規(guī)模必然是巨大的,有能力開發(fā)出該模型或改動該模型參數(shù)的機構較少。對于任務需求方而言,無論是無數(shù)的中小機構還是個人,即使有能力把大型語言模型開源?出來,也無力部署這一模型,更遑論用微調( Fine- tuning)技術模式修改模型參數(shù)。因此,追求不修正模型參數(shù),即能讓任務需求方順利完成任務的方 式,應該采取提示詞(Prompt)模式完成任務,而?非微調模式。模型制作方將 LLM 作為公用基礎設施服務,以基礎設施即服務( IaaS,Infrastructure as a Service)的模式運行。與此同時,作為服務提供方,要考慮千變萬化的用戶需求,LLM 模型開發(fā)?方追求讓 LLM 完成盡可能多類型的任務,這成為大型語言模型追求走向通用人工智能的現(xiàn)實因素。

第二, LLM 應具備強大的自主學習能力。假設人類向其灌輸世界上所有能夠獲得的文本或圖片 等不同類型的數(shù)據(jù),LLM 應自動學習其中蘊含的知識點,學習過程無需人的介入就能靈活應用所學 知識解決實際問題。數(shù)據(jù)是海量的,要吸收所有知 識,就需要足夠多的模型參數(shù)存儲知識,因此,這一模型必然會是“巨無霸”式的模型。

ChatGPT是否向GPT- 3.5 模型注入新知識??答案是注入了,這些知識包含在揭秘 ChatGPT 時提到的“幾萬人工標注”的數(shù)據(jù)中,但注入的不是世界知識,而是人類偏好知識。所謂“人類偏好”,包含兩方面含義。一是人類表達任務的習慣說法。例如,人們習慣性表達:“把下面句子翻譯成日語”,以此表達機器翻譯的需求,但 LLM 并?非人類,它如何理解這句話的含義?人類要想辦?法讓LLM 理解這句命令的含義,并正確執(zhí)行。因此, ?ChatGPT 通過人工標注數(shù)據(jù)的方式向 GPT- 3.5 注入這類知識,方便 LLM 理解人的命令,這是其“了解人類意圖”的關鍵。二是對于什么是好的回答,什么是不好的回答, ?人類有自己的標準。例如, ?比較詳細的回答是好的,帶有歧視性內容的回 答是不好的,諸如此類。但這是人類自身對回答質?量好壞的偏好。人工標注通過打分模型( Reward Model)?將這類信息反饋至 LLM 數(shù)據(jù)庫??傮w而?言,? ChatGPT 將人類偏好知識注入 GPT- 3.5,以此?獲得能夠聽得懂人類語言、自身擁有判斷標準的 LLM。

就具體過程而言,首先,創(chuàng)建人類偏好數(shù)據(jù)。?隨機挑選部分問題,并由標注人員給出高質量回?答,形成“人類表達-任務結果”的標注數(shù)據(jù),反饋至模型,讓其學習——這批數(shù)據(jù)數(shù)量僅有數(shù)萬,?并通過提示詞(Prompt)模式進行,即模型參數(shù)不發(fā)生變化。其次,訓練一個反饋模型。隨機挑選部分問題,由原始模型輸出答案,再由標注人員基于?“人類偏好標準”(例如,相關性、信息豐富程度、?答案有害、負面情感等),對原始模型的答案進行排序。最后,利用標注好的“人類偏好”數(shù)據(jù),訓練一個打分模型,這一打分模型會對原始模型的?結果進行打分,告訴他什么答案分高,什么答案分低。

以此為基礎,整個過程通過循環(huán)式地強化學習,將反饋模型和原始模型相鏈接,當原始模型輸出的結果在打分模型中獲得較低分值時,它將受到懲罰,同時,被要求重新學習。通過不斷循環(huán),原始模型逐漸迭代升級,直至“脫胎換骨”,徹底掌 握人類偏好,變成人類滿意的模型,即 ChatGPT。

(二)臺前:新型人機交互接口

目前,相關研究已經(jīng)證明大型語言模型 LLM 對于知識具有強大的記憶能力。但現(xiàn)實世界中,一 般不會將記憶能力的強弱作為判斷人是否聰明的標準。是否具有強大的推理能力,通常是判斷一個人 是否聰明的重要標準。ChatGPT要取得令人驚艷的效果,其背后強大的推理能力必不可少。推理能力的本質是綜合運用較多相關知識點,推導出新知識 或新結論。當模型規(guī)模足夠大時,LLM 本身就具備相應的推理能力。

ChatGPT 的最大貢獻在于較好地實現(xiàn)了大型語言模型 LLM 的接口層,讓 LLM適配人類習慣的命令表達方式,而非讓人類去適配 LLM,絞盡腦?汁地想出一個想要達到目的的命令。由此,能夠增加 LLM 的易用性和用戶體驗。

這種交互方式的演變,是一種較為理想的新型人機交互模式。不需要專業(yè)的能力和高端的設備,只要開口表達人類訴求,人工智能就能夠理?解并幫助人類進行解答。在 2022 年 12 月的媒體通稿中,對 ChatGPT 的評價集中于“仿真性”,儼?然通過圖靈測試一般。這種仿真性,可以認為是 ChatGPT 的“智力”得到進一步提升,變得更加聰明。

二、ChatGPT?的關鍵技術

有研究發(fā)現(xiàn),ChatGPT 在自然語言處理的系列任務方面,例如,文本理解與生成、對話問答、機器翻譯和程序代碼生成等都有較大進步。從技術層面講,得益于近幾年深度神經(jīng)網(wǎng)絡、大型語言模型研究的不斷發(fā)展,即海量數(shù)據(jù)加之巨大的算力催生這樣一個大型語言模型的落地應用。換言之, ChatGPT 背后的關鍵技術離不開大模型算法、大數(shù)據(jù)和大算力。

(一)算? 法

ChatGPT 由 GPT-3.5模 型提供支持,GPT ??( Generative Pre-trained Transformer ,生成式預訓練?轉換模型) 是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓練的文本?生成深度學習模型。在算法方面,該模型使用“利?用人類反饋強化學習(RLHF)”的訓練方式,包?括人類提問機器回答、機器提問人類回答,并不斷迭代,讓模型逐漸具有對生成答案的評判能力。RLHF的訓練過程可以分解為三個步驟(見圖2)。

1.?預訓練語言模型

選取經(jīng)典的預訓練語言模型作為初始模型。在預訓練模型出現(xiàn)之前,深度學習不夠成功的原因主要在于兩方面:一方面,匹配給某一具體任務的訓 練數(shù)據(jù)總量不夠多。隨著模型容量的增加,對訓練數(shù)據(jù)的需求隨之攀升,否則即使達到理想深度,也無法取得預期任務效果,進而成為自然語言處理領域無法逾越的難題;另一個方面,深度學習的特征抽取能力不夠強。換言之,即使有再多的數(shù)據(jù)也無濟于事, ?因為模型不能有效吸收數(shù)據(jù)中蘊含的知識。這兩方面原因阻礙了深度學習在自然語言處理領域的突圍。GPT 預訓練模型的出現(xiàn),無論是從學術研究角度審視,還是從場景應用角度觀察,都 代表自然語言處理領域的技術飛躍,并帶來整個領 域研究范式的轉換。

2. 打分模型的訓練

基于初始語言模型產出的數(shù)據(jù)訓練打分模型? ( RM,Reward Model)。打分模型的目標是評估?模型的輸出在人類看來是否表現(xiàn)得不錯。即輸入?[ 提示(Prompt),模型生成的文本] ?,輸出一個評估文本質量的標記數(shù)字。用于訓練打分模型的提示詞(Prompt)數(shù)據(jù)一般源自預先富集的數(shù)據(jù)集,? ChatGPT的Prompt 數(shù)據(jù)主要是調用 GPT API 的用戶。上述提示詞會被放進初始語言模型(第一?階段的模型) 中生成文本。可以將打分模型視為?判別式的語言模型,從預訓練語言模型出發(fā),對?[x=[prompt,模型回答 ],y= 人類滿意度 ] 構成的?標注語料進行微調;也可以隨機初始化,在語料基?礎上直接進行訓練。

3. 基于?RL 進行語言模型優(yōu)化

在初始的語言模型上生成文本,通過打分模型 ( RM) 判斷模型生成的文本是否優(yōu)質(迎合人類偏好)的基礎上,可以使用強化學習(RL)基于打分模型優(yōu)化初始的語言模型。

將初始語言模型的微調任務建模為強化學習(RL)問題,需要定義策略(Policy)、動作空間? (Action Space)和打分函數(shù)(Reward Function)等基本要素。策略指基于該語言模型,接收 Prompt 作為輸入,再輸出一系列文本(或文本的概率分布);動作空間是詞表標記在所有輸出位置的排列組合;觀察空間是可能的輸入標記序列,即 Prompt 為詞表全部標記在所有輸入位置的排列組合;打分函數(shù)是基于設定好的 RM 模型,?配合部分策略層面的合約進行的打分計算?;谶@一打分,可以根據(jù)策略優(yōu)化算法更新模型參數(shù)。

通過上述過程,可以迭代式的更新打分模型? (RM)和策略模型(Policy),讓打分模型對模型輸出質量的評估愈加精確,策略模型的輸出不斷與初始模型拉開差距,使輸出文本越來越符合人類的需求和認知。

(二)算? 力

ChatGPT 能夠成為新一代人工智能里程碑,離不開算力發(fā)展和數(shù)字經(jīng)濟時代形成的大數(shù)據(jù)共同支持的大型語言模型訓練。在算力方面,ChatGPT 使 用的 GPT-3.5模型在微軟云計算服務 Azure AI 的超?算基礎設施(由 V100GPU 組成的高帶寬集群) 上進行訓練,總算力消耗約 3640 PF-days (即按每秒?一千萬億次計算,運行 3640 天)。

由此帶來兩個問題,即巨大的算力需求與資金消耗。訓練和運行模型均需要龐大的算力,有研究估測,訓練 1750 億參數(shù)大型語言模型的 GPT- 3,需要有上萬個 CPU/GPU 24 小時不間斷地輸入數(shù)?據(jù),所需能耗相當于開車往返地球和月球,且一次運算要花費 450 萬美元(見圖3 )。

此前,企業(yè)多通過自行發(fā)電的方式滿足運營的電力需要,此舉不僅耗資巨大,而且還需具備某些與企業(yè)業(yè)務關聯(lián)不大的相關專業(yè)能力。電網(wǎng)基礎設 施的運行使供電成為一項公共事業(yè),也使企業(yè)可以通過購買電量代替自行發(fā)電,就其實質而言,企業(yè)是將自行發(fā)電變?yōu)橘徺I發(fā)電服務。集中發(fā)電可以使 電力的使用更為高效,也意味著更多企業(yè)甚至個人可以根據(jù)自身需要購買電,不用為其他電量支付任何費用。電力供應的公共化提高了各部門的生產力,改善了社會生活質量,也為新興產業(yè)的發(fā)展創(chuàng)造了機會。

信息和通信技術行業(yè)正經(jīng)歷與此類似的演進過程。幾十年來,公共部門、私人部門、組織和個人等通過投資電腦軟件和硬件,像購買商品一樣購買信息和通信技術。在過去的 10 年間,隨著高速寬帶基礎設施的普及,信息和通信服務的供給方式快速更新,通過互聯(lián)網(wǎng)可以將信息和通信技術作為一項服務進行購買。

現(xiàn)階段,算力如同被廣泛使用的電力一般,但與此同時,算力也是一項具有潛在破壞性與變革性的創(chuàng)造。未來,各行各業(yè)的用戶若想在不購買、安裝和運行昂貴的電腦硬件的基礎上使用服務,就可借助無處不在的有線或無線網(wǎng)絡——即從“云端”?獲取算力,這與使用其他公共基礎設施服務沒有區(qū)別(見圖4)。

(三)數(shù)? 據(jù)

有資料顯示,ChatGPT 擁 有多 達 1750 億 個?模型參數(shù),并在 2023年年初完成訓練。模型訓練的背后離不開大數(shù)據(jù)的支持,OpenAI 主要使用?的公共爬蟲數(shù)據(jù)集擁有超過萬億單詞的人類語言數(shù)據(jù)。正是基于上述海量數(shù)據(jù),ChatGPT 展示了強大的三種能力:一是語言生成能力。遵循提示詞(Rrompt)生成補全提示詞的句子。這是目前人類與語言模型最普遍的交互方式;?二是上下文學習(In-context learning) 能力。?遵循給定任務的幾個示例,為新的測試用例生成解決方案。值得一提的是,GPT-3 雖然是語言模型,但上下文學習才是ChatGPT 的真正重點,而不是“語?言建?!?Language Modeling);三是世界知識能力。包括事實性知識(Factual knowledge)和常識( Commonsense )。

上述三種能力均來自大規(guī)模預訓練。在有3000億個單詞的語料上預訓練擁有 1750 億參數(shù)?的模型( 60% 的訓練語料來自 2016-2019的Common Crawl 語料庫 + 22% 來自WebText 語料庫+ 16% 來自于、書籍和報刊雜志 + 3%來自維基百科)。其中, ?Common Crawl 是 2008 年至今在一個 網(wǎng)站抓取的大型數(shù)據(jù)集,數(shù)據(jù)包含原始網(wǎng)頁、元數(shù)據(jù)和文本提取,其文本來自不同語言、不同領域。重點研究實驗室一般會優(yōu)先選取純英文過濾版(C4)作為數(shù)據(jù)集。其中,WebText 是一個大型數(shù)據(jù)集,其數(shù)據(jù)是從社交媒體平臺 Reddit 所有出站?鏈接網(wǎng)絡中爬取的,每個鏈接至少有 3 個贊,代表流行內容的風向標,對輸出優(yōu)質鏈接和后續(xù)文本數(shù)據(jù)具有指導作用。

關于 ChatGPT 上下文學習的能力來源及為什么上下文學習可以泛化,現(xiàn)階段尚未有明確的剖析。有人工智能領域專家推測,這種能力可能來自同一個任務的數(shù)據(jù)點在訓練時按順序排列在同一個批處理中。未來,語言模型預訓練促進上下文學習的原理以及上下文學習行為與微調(Fine-tuning)??的協(xié)同原理值得進一步研究。

現(xiàn)階段的 ChatGPT 是在擁有 3000 億個單詞?的語料基礎上預訓練擁有1750億參數(shù)的模型, GPT-4 將是一個擁有超過 100 萬億級別參數(shù)的大模 型(見圖5)。根據(jù)學術界的既有研究可知,深度神經(jīng)網(wǎng)絡的學習能力和模型的參數(shù)規(guī)模呈正相關。?人類大腦皮層有 140 多億個神經(jīng)細胞,每個神經(jīng)細 胞有 3 萬余個突觸,因此,大腦皮層的突觸總數(shù)超 過 100 萬億個,神經(jīng)細胞通過突觸相互建立聯(lián)系。?一旦 GPT-4 實現(xiàn) 100 萬億參數(shù)規(guī)模,就可以堪比人的大腦,意味著它將達到與人類大腦神經(jīng)觸點規(guī) 模的同等水平。如果上述假設成為現(xiàn)實,不僅意味著 GPT-4 系統(tǒng)可以改造人類的思想和創(chuàng)作能力,?形成人工智能超越專業(yè)化能力和大眾化趨勢,而且意味著這一系統(tǒng)開始具備人類思維能力,并有可能在某一方面或其他方面替代人類。

三、ChatGPT?的未來圖景

相較以往,人工智能進化的深度學習能力,對大部分人而言只是一個高深的概念。ChatGPT 通過生成式預訓練轉換模型 RLHF 基于人類反饋的強化 學習這一方式,讓所有人真正接觸到“人工智能 +?深度學習”會帶來何種變化,對于人類的生活會產生哪些影響。因此,ChatGPT 可能會加速人工智能 和深度學習理論在經(jīng)濟社會各領域的普及應用。

學術界普遍認為,ChatGPT 的未來應用場景充滿無限可能。從社交媒體到廣告創(chuàng)意,從游戲到影視娛樂,從編程到深度寫稿,從平面設計到?產品工業(yè)設計,從文字翻譯到外事同聲傳譯等,?每個原本需要人類創(chuàng)作的行業(yè)都等待被 ChatGPT 顛覆性重塑。ChatGPT 被公認為是繼互聯(lián)網(wǎng)、智能手機之后,帶給人類的第三次革命性產品?;?聯(lián)網(wǎng)開辟了“空間革命”,使人類可以實時與全世 界鏈接,不必奔赴現(xiàn)場,可以通過互聯(lián)網(wǎng)進行溝通、教學、視頻會議,使政治、社會和商業(yè)等領域發(fā)生連鎖變化;智能手機的出現(xiàn)帶來“時間革命”,通過可拓展安裝的各種 APP 應用軟件,可以實現(xiàn)最快交易、最速送達,為人類的生活、工作?和消費帶來巨大變化;ChatGPT 的橫空出世,有望形成“思維革命”,替代人類進行創(chuàng)作、創(chuàng)意、解答、咨詢、翻譯、客服等,改變人類思考和處理?問題的方式方法,并由此重塑各行業(yè)生態(tài),甚至重塑整個世界(見圖6)。

現(xiàn)階段的 ChatGPT 以高度擬人化的對話問答模式帶來更好的交互體驗,短期內將促進金融、媒體、醫(yī)療等諸多領域自然語言處理的應用。例如,在金融領域,ChatGPT 利用其大模型能夠大幅提升 語義搜索能力,面對復雜多變的投資理財咨詢,能夠準確找到滿足用戶需求的咨詢結果;又如,招商銀行信用卡已經(jīng)基于 ChatGPT 撰寫宣傳稿件,寫出“生命的舞臺上,我們都是基因的載體”、“如果說基因給我們的生命帶來了基礎,那親情便是對生命的深刻賦予。它不由基因驅使,而是一種慷慨的 選擇”等富有詩意的文案。在投研方面,業(yè)內首份采用 ChatGPT 撰寫的行業(yè)研究報告完成度較高, 但距專業(yè)研究報告仍存在較大差距。財通證券團隊介紹,“ChatGPT 在文字表意、標題撰寫等方面均具有較高水平”。在媒體領域,大量的稿件均可以通過 ChatGPT 進行自動化生產,其獨創(chuàng)性和創(chuàng)造?力并不輸于專業(yè)人員。未來,文字工作者應積極探 索新技術幫助其提高生產效率,讓 ChatGPT 起草初稿,人類只需要在其基礎上進行修改完善;在醫(yī)療領域,ChatGPT 可以替代專業(yè)人員為患者提供心理咨詢、問診和解答服藥建議,等等。

以教育領域為例,從媒體報道中可以整理出 16 種 ChatGPT 教學應用用法(見表1)。

據(jù)媒體報道,ChatGPT 除在高校占有一席之?地外,其適用范圍已經(jīng)下探至學齡前兒童和中小學階段。據(jù)報道,有一位居住在國內某城市的 4 歲小孩的媽媽向記者明確表示,她每天都會登錄 ChatGPT,和“它”聊會兒天,并把“它”推薦給其他媽媽,解答孩子的教育問題。部分中小學教師也在思考將 ChatGPT 融入自己的教學工作,一名剛入職的小學語文教師解釋說,小學生由于年齡小、心智尚未發(fā)育成熟,在上課時不僅需要教師在知識的學習上提供幫助,而且需要在心理層面進行 全方位培養(yǎng),她經(jīng)常詢問 ChatGPT 諸如“如何矯正小學生不良行為習慣”、“教師如何與內向的小學生溝通”等問題。

由此可見,ChatGPT 在各行各業(yè)均具有無限的未來應用場景,ChatGPT 正在快速走進人類的工作和生活,成為繼互聯(lián)網(wǎng)、智能手機之后,人人都離不開的工具。

四、ChatGPT?的影響分析

科技進步造福人類經(jīng)濟社會,讓人類可以提質增效、實現(xiàn)高質量發(fā)展。但是,科技是一把“雙刃劍”,使用不當,會對經(jīng)濟社會產生負面效應? (見圖7)。

(一)正面效應:大幅提質增效

科技創(chuàng)新可以提高經(jīng)濟結構的效率和靈活性,提高企業(yè)的競爭力,節(jié)約能源、資源和工人成本,?推動產業(yè)升級,促進供給側結構的變革,改善質量和效率,催生新產品、新技術和新模式,進而促進經(jīng)濟增長。ChatGPT 作為一種科技創(chuàng)新,通過分析大規(guī)模數(shù)據(jù),在其中找到諸多規(guī)律,生成新作品,而不僅限于分析已經(jīng)存在的東西,在某些情況下,較人類更具創(chuàng)造力,且創(chuàng)造得更好。未來,ChatGPT 處理的領域包括所有知識工作和創(chuàng)造性工作,可能涉及數(shù)億的人工勞動力,使相關領域人工勞動力的效率和創(chuàng)造力得到大幅提高,不僅較以往更快、更高效,而且更完美、更具創(chuàng)意。

首先,ChatGPT 能夠帶來更高的生產率。與傳統(tǒng)的文本識別或語言理解系統(tǒng)相比,聊天機器人系統(tǒng)更加容易使用,可以更有效地了解輸入的問句,提高結果的準確性,改變傳統(tǒng)的生產和服務方式,讓企業(yè)更有效地利用有限的資源生產更多的產品和提供更好的服務,在提升效率的同時,降低成本。其次,ChatGPT 技術的應用可以提升企業(yè)的核心競爭力,帶來增量利潤,促進業(yè)務增長,不斷改善經(jīng)濟社會結構,帶動產業(yè)數(shù)字化轉型和智能化 ?升級。此外,技術創(chuàng)新可以滿足更多的消費需求,促進投資市場的發(fā)展。例如,ChatGPT 可以幫助客 ?服代言人進行個性化會話,有能力快速了解客戶的需求、分析重點,及時回答客戶的提問,能夠提高客戶的滿意度和對公司的信任度。在此基礎上,ChatGPT 新技術的應用可以使企業(yè)擁有更多的消費者,拉動營收和利潤的增加的同時,促進投資市場 的發(fā)展,最終實現(xiàn)經(jīng)濟的可持續(xù)發(fā)展。

(二)負面效應:作弊與知識產權糾紛

ChatGPT 被濫用的問題愈發(fā)明顯,最常見的是作弊問題。在美國,北密歇根大學一名學生使用 ChatGPT 生成的哲學課小論文震驚了教授,得到全班最高分。有調查顯示,89% 的美國大學生?承認使用 ChatGPT 做家庭作業(yè),53% 的學生用它寫 論 文,48%?的 學 生 使 用 ChatGPT 完 成 測 試(見圖8)。

據(jù)媒體報道,近期,有多所歐美高校對 ChatGPT 發(fā)出禁令。法國巴黎政治學院宣布禁止學生使用 ChatGPT 和其他人工智能產品完成報告, 除非教師有特定課程需求,否則學生使用 ChatGPT 完成報告,最重將面臨退學處罰;美國紐約市公立學校只有在進行人工智能與科技相關教學時,才能由教師申請在課堂上使用 ChatGPT;澳大利亞、印度、英國等多所大學也限制學生使用 ChatGPT,尤其是在校園內以及考試期間。

ChatGPT 這類人工智能產品雖然能為學生提供 快速簡潔的答案,但無法幫助學生培養(yǎng)批判思考與 解決問題的能力。與此同時,ChatGPT 創(chuàng)作的內容 所有權歸使用者所有,但如果產生的內容有侵犯他 人知識產權的行為,那么,將淪為知識產權糾紛事 件。例如,使用 ChatGPT 在未經(jīng)授權的具有知識?產權的圖片或文字基礎上創(chuàng)作的內容,可能出現(xiàn)知 識產權糾紛問題。對使用 ChatGPT 生產內容而言, 知識產權糾紛是不可忽視的,知識產權保護、合法 性檢查、協(xié)調和解決、技術防弊以及持續(xù)的監(jiān)管等 措施,將是未來應對 ChatGPT 知識產權糾紛可能?性時采取的重要措施。

五、政策建議

ChatGPT 是新一代人工智能的代表性應用,是 未來的高科技風口。唯有把握這波技術紅利,前瞻性布局,才能引導 ChatGPT 更好地服務經(jīng)濟社會發(fā)展,創(chuàng)造更大更多的價值。

一是引導企業(yè)融入ChatGPT 浪潮。ChatGPT 的重點在于創(chuàng)造,通過大量的語料訓練和強大的糾錯能力,對素材進行消化、整理和再輸出,與傳統(tǒng)的 IT 行業(yè)云計算模式完全不同。以阿里云為例,?其主要負責為客戶提供云存儲和數(shù)據(jù)庫服務,程序運作的底層邏輯是先有問題再找答案。ChatGPT 是 從 0 到 1 主動創(chuàng)作內容,側重點區(qū)分較為明顯。因此,筆者建議各企業(yè)等通過組織企業(yè)負責人培訓等工作,讓企業(yè)家意識到 ChatGPT 時代的到來和重大意義,鼓勵企業(yè)將人工智能主導的內容創(chuàng)作變?yōu)楣竞诵臉I(yè)務的重要組成部分。

二是推動 ChatGPT 技術融入元宇宙產業(yè)布局。?元宇宙被認為是數(shù)字經(jīng)濟的下一個支撐點,受到地 方政府高度重視,紛紛將其列為新興產業(yè),不斷謀劃元宇宙發(fā)展布局。據(jù)統(tǒng)計,浙江省、江西省、湖 北省、河南省 4 個省以及北京市、上海市 2 個直轄 市,均從省級層面對元宇宙進行布局。杭州市、合肥市、成都市、武漢市將元宇宙寫入 2022 年政府工作報告。ChatGPT 的出現(xiàn)為所有人提供了以自然 語言對話方式進行文本生成的新方式和新工具,大幅降低了構建元宇宙的門檻,可以用與構建互聯(lián)網(wǎng)完全不同的方式構建元宇宙。大量非專業(yè)人員可以通過用語言描述自身需求,ChatGPT 會自動生成設計圖和代碼,使效率得到極大提高,成本大幅下 降,元宇宙內容數(shù)量將得到進一步豐富。筆者建議各地元宇宙產業(yè)發(fā)展的主管部門定期追蹤研究 ChatGPT 技術進展和國內外先進應用場景案例,以更快的速度實現(xiàn)元宇宙發(fā)展布局。

三是促進ChatGPT 技術融入數(shù)字人( Digital Human/Meta Human) 功能。隨著 AR/VR、虛擬引?擎、3D 建模等軟硬件技術的日臻成熟,數(shù)字人迎 來重大發(fā)展契機,要充分利用新科技提供更加完善 的沉浸式體驗,極大地提升數(shù)字人的商業(yè)價值,并 拓展其應用領域。例如,數(shù)字人可以承擔向導的角色,通過數(shù)字人與用戶進行多模態(tài)互動,“面對 面”實現(xiàn)低延遲的實時交互交流,為游客提供路線規(guī)劃、信息查詢、導覽講解等智能服務,在社交和 娛樂過程中持續(xù)為用戶帶來新鮮體驗,有效提高景區(qū)吸引力、提升景區(qū)的品牌價值和商業(yè)價值。以?北京市為例,2022 年 8 月,北京市發(fā)布《北京市?促進數(shù)字人產業(yè)創(chuàng)新發(fā)展行動計劃( 2022 - 2025 年)》,明確提出到 2025 年北京市數(shù)字人產業(yè)規(guī)模突破 500 億元的發(fā)展目標。與此同時,全國諸多省市自治區(qū)紛紛將數(shù)字人納入新科技發(fā)展目錄,謀劃 進一步推動其普及落地。ChatGPT 將徹底改變數(shù)字 人的全部構建技術。從數(shù)字人的面貌、穿著、形態(tài)設計、行動和姿態(tài)以及自然語言溝通,到數(shù)字人的任務執(zhí)行 ,環(huán)境的感知和交互等等,ChatGPT 將使?數(shù)字人的制作更加便捷和簡單,讓數(shù)字人的功能更 加豐富。筆者建議政府、企業(yè)、各大高校和科研院所研究落實 ChatGPT 技術在數(shù)字人中的應用,讓?數(shù)字人產業(yè)發(fā)展目標超額實現(xiàn)。

四是重視ChatGPT 隱患,將其納入社會科學研究課題。由于ChatGPT 訓練數(shù)據(jù)源自互聯(lián)網(wǎng),?企業(yè)或科研院所在使用時需要對ChatGPT 生成的??作品進行把關,防范知識產權風險。尤其是大學和科研院所工作人員在使用 ChatGPT 撰寫論文、發(fā)明專利等過程中,一方面,建議其在使用 ChatGPT創(chuàng)作內容時,務必核實內容不違反他人知識產權,?并對相關內容擁有授權,避免出現(xiàn)知識產權糾紛;?另一方面,應該有第三方幫助其“驗明正身”,通過技術手段建立有效的、具有針對性的持續(xù)監(jiān)管體系,以確保 ChatGPT 生成的內容合法合規(guī)。例如 ?通過某種檢測工具,弄清文本是由人類撰寫還是由 ?ChatGPT 生成??萍荚谶M步,社會科學也要與時俱進,建議高校、科研院所等單位將 ChatGPT 列為重大課題,注重科技創(chuàng)新過程中的倫理問題,注重科技創(chuàng)新可能造成的不利社會影響,制定相關政策法規(guī),促進自然科學與社會科學的交融共振。
(部分內容來源網(wǎng)絡,如有侵權請聯(lián)系刪除)
立即申請數(shù)據(jù)分析/數(shù)據(jù)治理產品免費試用 我要試用
customer

在線咨詢

在線咨詢

點擊進入在線咨詢