97国产精品一区二区视频_国产午夜毛片色哟哟_惠民福利国产91精品看黄网站在线观看_搡老熟女老女人一区二区三区_国产做a∨在线视频观看免费_日韩 综合 婷婷 图_成人黄色一级毛片片_萧山本地第一网络媒体_亚洲国产精品无码久久久曰_亚洲欧美日韩岛国色图

快捷導航

算法信任︱雙重“脆弱性”與適度信任:從ChatGPT到Sora

2025-1-15 12:57| 發(fā)布者: admin| 查看: 102| 評論: 0
摘要: Sora作為一項新的技術能夠創(chuàng)造并處理復雜的動態(tài)視頻內(nèi)容,從理解靜止的世界到理解運動的世界,標志著人工智能認識世界圖景的一大轉(zhuǎn)換。對物理世界運動規(guī)律認識的不足和對細節(jié)的混淆是Sora的技術“脆弱性”,由這種技 ...
Sora作為一項新的技術能夠創(chuàng)造并處理復雜的動態(tài)視頻內(nèi)容,從理解靜止的世界到理解運動的世界,標志著人工智能認識世界圖景的一大轉(zhuǎn)換。對物理世界運動規(guī)律認識的不足和對細節(jié)的混淆是Sora的技術“脆弱性”,由這種技術脆弱性進一步加劇了信任“脆弱性”?;诩夹g“脆弱性”的風險,與此相伴隨的前置的、動態(tài)的和代理的這三種新的信任模式隨之而至。由技術“脆弱性”和信任“脆弱性”所構(gòu)成的雙重“脆弱性”、積極的對抗“脆弱性”、消極的對抗“脆弱性”以及無關“脆弱性”這四個象限,分別指向人工智能技術未來發(fā)展的四種樣態(tài)。從信任“脆弱性”與人工智能技術未來發(fā)展關系的四個象限分析來看,適度信任的構(gòu)建是破解信任與技術雙重“脆弱性”的有效方式,而適度信任構(gòu)建的本身則需要以物理世界的因果律為基礎、以人類信任為最后尺度、以向人類價值觀保持對齊啟蒙為前提、以充分證據(jù)為信任重建依據(jù)。

2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》,《辦法》第十七條提出生成式人工智能服務提供者應當“提供可以影響用戶信任、選擇的必要信息,包括預訓練和優(yōu)化訓練數(shù)據(jù)的來源、規(guī)模、類型、質(zhì)量等描述。”[1]對于生成式人工智能服務的信任與選擇是當下人們的重要工作,這關系到人類與生成式人工智能的未來關系構(gòu)建。生成式人工智能正在以驚人的速度發(fā)展,從ChatGPT的文本生成走向圖片生成再到視頻的生成與制作,Sora的出現(xiàn)讓人類與生成式人工智能的互動又更進了一步。這意味著人機交互的門檻在不斷降低,體驗在不斷加深,AI離人類又更近了一步。同時,Sora的快速走進伴隨著技術與信任的雙重“脆弱性”。

技術的“脆弱性”來自Sora本身尚難以克服的技術缺陷,信任的“脆弱性”則來自于對Sora等人工智能技術信任的盲目、不適度,這種信任隸屬于技術信任,是人類與Sora互動中核心的部分,與技術“脆弱性”交織影響帶來社會風險。適度的信任對于健康的人機關系構(gòu)建來說具有至關重要的作用,能夠影響到人工智能產(chǎn)品與服務的設置標準,例如,自動駕駛汽車的智能化應用程度、生成式人工智能產(chǎn)品(ChatGPT或Sora)的訓練數(shù)據(jù)設置等。信任的缺乏與信任的濫用則會影響人工智能產(chǎn)品與服務的安全使用。所以,對人工智能適度信任的追求是保證人工智能技術守住安全邊界的關鍵一環(huán),也是邁向AGI時代過程中對人類社會的安全保障。

一、從技術的“脆弱性”到信任的“脆弱性”

“脆弱性”的英文是“vulnerability”,與拉丁語動詞“vulnerare”、拉丁語名詞“vulnus”密切相關,它最簡潔的含義是“容易受到傷害、影響或攻擊”。[2]“脆弱性”概念的根源在于生物倫理話語中的身體傷害的可能性。而從技術倫理的角度來看,“脆弱性”指的是由技術的不穩(wěn)健性帶來的風險傷害,這種不穩(wěn)健性來自于技術的不成熟或暫無法突破的技術瓶頸。基于此,技術的“脆弱性”使技術成為了一把雙刃劍,在對人類社會發(fā)揮巨大作用的同時也給人類帶來了風險和傷害。

(一)從靜止的世界圖景到運動的世界圖景

從技術能力來看,Sora作為AI模型超越了ChatGPT文本生成模式,達到了目前生成式人工智能前所未有的認知和生成能力,其具有“能夠生成具有多個角色、特定類型的運動以及主體和背景的準確細節(jié)的復雜場景。該模型不僅了解用戶在提示中提出的要求,還了解這些東西在物理世界中的存在方式?!盵3]的能力。科學家正在嘗試教給AI模型一個運動的世界圖景,相比于對靜止的二維世界的認識,Sora能夠理解并模擬真實物理世界運動規(guī)律,這解決了模型學習中的“時空分割”問題,相比于只能輸出對話、文章、或代碼的ChatGPT,這是Sora在技術功能方面的一大進展。

近年來,人工智能技術三個核心要素:大算力、大數(shù)據(jù)、大模型,被視為了重要資源,而將這些資源恰當?shù)卣掀饋硎侨藱C繼續(xù)融合發(fā)展的要務。但在資源整合的過程中,人類的信任逐漸成為最大的弱點。如,在大算力、大數(shù)據(jù)、大模型的使用當中,如果缺乏人與人之間的信任或者人與機器之間的信任,技術監(jiān)管標準的設置將會提高,協(xié)作將變得更加困難;反之,如果期間的信任過度,那么將難以避免在資源融合過程中的過度技術化傾向,對技術過程的監(jiān)管與回溯將成為難題。

基于此,隨著人工智能認知世界方式的轉(zhuǎn)變,相應地人類的信任方式也需要適應這種變化,實現(xiàn)從傳統(tǒng)的信任模式向人工智能信任模式的跨越??焖俚乜缭绞剐湃伟l(fā)生背景性的“脫節(jié)”。面對技術的發(fā)展,安東尼·吉登斯(Anthony Giddens)曾用“脫域(disembeding)”來形容“社會關系從彼此互動的地域性關聯(lián)中,從通過對不確定的時間的無限穿越而被重構(gòu)的關聯(lián)中‘脫離出來’”,“所有的脫域機制(包括象征標志和專家系統(tǒng)兩方面)都依賴于信任(trust)”[4]在這一過程中,信任起到了關鍵的作用。在數(shù)智時代,信任的發(fā)生從傳統(tǒng)的、直接產(chǎn)生接觸和互動的場景中脫離出來,逐漸演變成為基于對技術的信任(confidence)或依賴(reliability)的新型信任模式,涵蓋了專家信任、系統(tǒng)信任和技術信任等多個維度,這種轉(zhuǎn)變要求當下信任的動態(tài)調(diào)節(jié)性變得更加靈活。

(二)從唯一的現(xiàn)實世界到虛擬的數(shù)字世界

Sora打造的世界是區(qū)別于人類現(xiàn)實世界的虛擬數(shù)字世界,Sora所生成的視頻帶給人們強烈的真實感,其在視頻生成時長、分辨率、內(nèi)容等多個維度的質(zhì)量表現(xiàn)優(yōu)越。與處理文本的ChatGPT不同,Sora旨在通過模型生成豐富的視覺體驗,拓展虛擬世界的邊界。Sora仍在進步,其核心目標并非簡單模仿現(xiàn)實世界,而是在虛擬領域中創(chuàng)造出與現(xiàn)實世界相媲美的高質(zhì)量視頻內(nèi)容,最終可能指向數(shù)字世界中“數(shù)字孿生”、“具身智能”的發(fā)展。

OpenAI官方將Sora定義為“具備理解和模擬動態(tài)現(xiàn)實世界能力的人工智能模型”[5]該模型致力于通過虛擬化人物與物體,推動實體世界與虛擬世界的融合。然而,Sora想要成為世界模擬器的目的尚未明確,是否指向“數(shù)字孿生”、“具身智能”技術的發(fā)展,或是作為邁向人工通用智能(AGI)時代的前奏,仍有待探索。參考2012年NASA在其技術路線圖中提出的“基于仿真的系統(tǒng)工程”(Simulation-Based Systems Engineering)部分,其中首次引入了“數(shù)字孿生”(Digital Twins)的概念。數(shù)十年來,數(shù)字孿生技術已經(jīng)得到了廣泛關注,并在多個行業(yè)中得到應用。這引發(fā)了一個深刻的哲學思考:人類所生活的現(xiàn)實世界是否能夠被數(shù)字化的虛擬世界所替代?

相比于Sora的強大功能,其“脆弱性”更值得人們關注。根據(jù)OpenAI官方指出,“該模型還可能會混淆提示的空間細節(jié),例如混淆左右,并且可能難以精確描述隨著時間推移發(fā)生的事件,例如遵循特定的相機軌跡?!盵6]根據(jù)相關文章對此的分析,Sora采用的“擴散變壓器”(Diffusion Transformer)架構(gòu)在處理序列數(shù)據(jù)時,展現(xiàn)出的特性為生成的序列在連貫性和現(xiàn)實性上存在一定的局限性,即“該序列既不完全連貫,也不完全現(xiàn)實?!盵7]通過觀察Sora生成的作品亦可見,Sora在模擬真實世界的物理規(guī)律和三維空間運動方面尚存在不足,導致生成的視頻中出現(xiàn)了一些不符合現(xiàn)實邏輯的場景,如,在跑步機上逆向跑步、自發(fā)出現(xiàn)的灰狼幼崽、籃球穿越籃框等異常。這些問題揭示了Sora在空間細節(jié)識別和因果關系理解上的局限,以及在物理規(guī)律掌握上的不足。因此,在技術應用和倫理安全方面,Sora還需要進一步的探索和完善。虛擬世界與現(xiàn)實世界是異質(zhì)的。隨著技術的不斷進步,人們的價值觀念和發(fā)展目標也不斷地配合技術發(fā)展而調(diào)整,人類價值結(jié)構(gòu)面臨著技術化的解構(gòu)與重構(gòu)的壓力。

(三)技術的“脆弱性”引發(fā)信任的“脆弱性”

與ChatGPT等其他生成式人工智能不同的是,Sora的“文生視頻”模式在人機交互方面提供了更低的門檻和更強烈的體驗感,使得人工智能技術更加貼近人們的日常生活。就好比對于三歲孩童來說,看電視總是要比看書來得更加直觀和具有吸引力。Sora所呈現(xiàn)的創(chuàng)新的交互模式已經(jīng)為生成式人工智能的發(fā)展開辟了新的可能性。但是,Sora尚存在難以克服的弱點:“它可能難以準確模擬復雜場景的物理原理,并且可能無法理解因果關系的具體實例。”[8]這一局限將影響其在面向廣大用戶開放后的準確性與可靠性,并引發(fā)信任的“脆弱性”。

對因果關系的探究和把握是人的本質(zhì)特征,人類將這種“解密”視作天職。而對于人工智能來說,對因果關系以及細枝末節(jié)的把握只是學習的一部分,這一過程是基于人類提供的數(shù)據(jù)進行的無意識訓練。能否完全掌握這些能力,需要經(jīng)過長時間的實踐和驗證。盡管Sora存在一些明顯的弱點,且這些弱點為人工智能系統(tǒng)帶來了潛在的風險。但更深層次的問題在于這些風險并沒有減弱人們對Sora的熱情。當前普遍存在一種信念,即認為Sora帶來的收益遠遠超過其潛在的風險。這種對Sora的盲目信任本身就是更深層次的風險因素,因為它可能導致人們對風險的警覺性降低,從而降低對Sora的安全和倫理標準要求,增加風險的可能性。這種信任是脆弱無比的,一旦Sora發(fā)生重大失誤,那么信任將立刻消失,取而代之的是質(zhì)疑與問責。技術的“脆弱性”從而轉(zhuǎn)化為信任的“脆弱性”。

Sora尚不存在“自制”的能力,科學家將此類人工智能系統(tǒng)視為增強人類能力的方式,但實際上,這種信任建立在一定的風險之上。首先,確保Sora的文字輸入與視頻輸出的安全性是一個重要的議題。OpenAI官方給出這樣的解釋,“在 OpenAI 產(chǎn)品中,我們的文本分類器將檢查并拒絕違反我們的使用政策的文本輸入提示,例如要求極端暴力、性內(nèi)容、仇恨圖像、名人肖像或他人 IP 的文本輸入提示。我們還開發(fā)了強大的圖像分類器,用于檢查生成的每個視頻的幀,以幫助確保它在向用戶顯示之前符合我們的使用政策?!盵9]根據(jù)OpenAI的公開資料,該組織已經(jīng)開發(fā)了文本分類器,用以篩查并拒絕那些違反使用政策的文本輸入提示,如涉及極端暴力、色情內(nèi)容、仇恨言論、名人肖像或侵犯他人知識產(chǎn)權(quán)的提示。此外,他們還構(gòu)建了先進的圖像分類器,對生成的每個視頻幀進行檢查,確保在展示給用戶之前,內(nèi)容符合既定的使用政策。其次,防止用戶對Sora技術的不當使用也是一個挑戰(zhàn)。據(jù)觀察,Sora通常能夠有效地處理短期和長期依賴關系,“我們發(fā)現(xiàn)Sora 通常(盡管并非總是)能夠有效地對短期和長期依賴關系進行建模。”[10]這表明Sora在理解和生成復雜場景方面可能存在局限,需要進一步的技術優(yōu)化和監(jiān)管措施。最后,如何確保Sora能夠及時從不斷變化的人類現(xiàn)實世界中學習,避免因模型學習滯后而帶來的風險,也是一個亟待解決的問題。為了實現(xiàn)這一點,需要不斷地更新和優(yōu)化模型,以適應新的數(shù)據(jù)和現(xiàn)實世界的變化,同時確保使用效果的有效性?;谝陨戏治?,建立在技術“脆弱性”上的信任同樣是脆弱的,技術的“脆弱性”一定程度地導致了信任的“脆弱性”。

二、 技術“脆弱性”風險下的人工智能信任生成模式

如何與Sora之間建立適度的信任成為了最新的問題?;仡櫽嬎銠C的發(fā)展歷史,對自動化的信任、對互聯(lián)網(wǎng)的信任和對網(wǎng)絡系統(tǒng)的信任,是計算機科學和認知系統(tǒng)工程中非常關注的問題。[11]隨著計算機的自動化和智能化程度越高,人們對其的信任也越發(fā)感到擔憂。因為在關于高度智能化的產(chǎn)品和服務當中,涉及的不僅是設計者、研發(fā)者也有廣大的使用群體,而廣大的使用群體才是數(shù)量最龐大的群體,所以對人工智能系統(tǒng)的信任是否適度的問題需要受到嚴格的考察,這將牽扯多方的利益。不信任人工智能是有理由的,“復雜系統(tǒng)的表現(xiàn)是難以理解的,好像也經(jīng)常違反直覺?!盵12]技術中令人難以理解的部分往往消解了信任的可能性,但是對于技術的好奇與期望又重新培養(yǎng)了人們對技術的信任。于是技術與信任之間出現(xiàn)了難以彌合的鴻溝,這一鴻溝加劇了人工智能信任的“脆弱性”。在技術“脆弱性”風險下,新的信任模型得以生成。

(一)前置模式的人工智能信任

人工智能信任與人際信任不同,人工智能信任的付出往往先于信任證據(jù)的產(chǎn)生,人們想要獲得人工智能的技術服務,則必須先付出對人工智能技術產(chǎn)品和服務的信任,可以稱之為人工智能信任的前置性。因為人工智能信任的這種前置性,人際信任所包含的要素關系(誠實、正直、公正等)很難被接續(xù)應用到人工智能信任當中,人工智能唯一參與雙方信任關系的要素是技術能力。人工智能的技術能力是人們選擇對其付出信任并且與其構(gòu)建信任關系的最關鍵因素。但是,由于算法的局限性和弱點,人工智能技術能力在根本上是不夠穩(wěn)定的,所以人類對于算法、人工智能會干壞事的擔憂一直存在。在此種情況下,信任的前置來源于兩個原因:

一方面,信任的前置性是由于技術拒絕對個體的危害。這里的技術拒絕指的是人類不給予某項技術產(chǎn)品以信任授權(quán),所以無法享受技術產(chǎn)品帶來的便利與效益。就好比在電子商務的信用支付出現(xiàn)之前,支付服務往往是前置性的,顧客必須要先完成支付才能獲得商品或者服務。對于人工智能的技術服務來說,人類的信任是前置性的,如果不先付出信任,同意人工智能產(chǎn)品使用所需要的條款和規(guī)范,那么就會受到技術拒絕,無法完成某一項技術的嘗試與使用。從某種程度上來說,信任是類似于貨幣資源的存在,在利用信任來兌換智能產(chǎn)品服務的過程中,信任必須前置。在時間關系上,人工智能信任的發(fā)生先于人工智能產(chǎn)品的使用,因此,這樣缺乏證據(jù)的人工智能信任是“脆弱”的。

另一方面,信任的前置性是由于人類與人工智能的依賴共生。人工智能技術的發(fā)展需要人類信任的前置。人工智能技術之所以“脆弱”是因為其對數(shù)據(jù)的高度依賴。人工智能系統(tǒng)需要大量的數(shù)據(jù)來進行訓練和學習,毫無疑問這些數(shù)據(jù)的產(chǎn)生來源是不斷更新的人類世界。Sora和ChatGPT都是基于大型語言模型(Large Language Model,LLM)預訓練的新型生成式人工智能,采用“利用人類反饋中強化學習”(RLHF)的訓練方式,在人類與機器人的互相問答過程中不斷進化和迭代,來逐漸提升模型生成答案的準確性。如果沒有得到人類數(shù)據(jù)用以訓練,那么再先進的學習模型也將面臨“巧婦難為無米之炊”的困境。所以,信任的前置付出對于人工智能生成模型的進步是至關重要的,這是基于技術發(fā)展的角度而非人類個體的角度來考慮的。任何一款人工智能產(chǎn)品在推出之后最渴望得到人們的信任與推廣,如果沒有得到信任其將因為數(shù)據(jù)的缺乏而成長緩慢直至最終淘汰。

前置性的人工智能信任是技術“脆弱性”風險下生成的信任新模式,在這樣的信任之下始終存在這樣的一個問題,即人類無法全面了解人工智能技術的意圖與行為。換言之,相當于人在不了解另一個人的情況下為其行為作了責任擔保,這使人類背負上了巨大的風險,由技術“脆弱性”帶來的信任“脆弱性”由此產(chǎn)生。

(二)動態(tài)模式的人工智能信任

人工智能技術應用過程中的任何反饋都將成為影響人工智能信任的變量,人工智能信任呈現(xiàn)出一種根據(jù)情境變化進行動態(tài)調(diào)整的狀態(tài)。羅伯特·霍夫曼(Robert R. Hoffman)指出:“在不斷變化的工作和不斷變化的系統(tǒng)的范圍內(nèi),積極探索和評估可信度和可靠性的持續(xù)過程”[13]信任具有一定的安全閾值,在安全閾值內(nèi)信任可以根據(jù)實際情況做出調(diào)整。

動態(tài)性的人工智能信任與風險變化息息相關。吉登斯指出:“風險和信任交織在一起,信任通常足以避免特殊的行動當時所可能遇到的危險,或把這些危險降到最低的程度。”[14]信任調(diào)節(jié)是通過人們的警惕心理和行動標準而發(fā)揮作用。在高風險條件下,一些人可能會減少對復雜技術的依賴,但會增加對簡單技術的依賴?!盵15]而在低風險的條件下,人們對復雜技術的依賴將會變得更加強烈。例如,在城市中尋找某個陌生地點的時候,一大部分人執(zhí)著于低頭依靠手機導航的指引而放棄通過路牌路標等實體指引進行尋找,這是因為他們對智能導航技術的信心十足,同時找錯路的風險也是屬于低風險的存在,所以在這一低風險場景中人們選擇了對人工智能技術付出高度的信任。但當場景轉(zhuǎn)換到醫(yī)療、政策決策等關系重大的場景中時,信任的動態(tài)調(diào)整開始發(fā)揮作用。

根絕不同的時間、情境和關系的變化而發(fā)生變化的信任模式是動態(tài)的信任模式。動態(tài)信任是對安全的確保。在自動駕駛領域,自動駕駛汽車的錯誤對駕駛員信任和信任相關感知會產(chǎn)生較大的影響,“用戶的信任是一個動態(tài)的過程,特別是在面臨自動化錯誤時,用戶對自動駕駛汽車的信任會迅速減弱,并嚴重影響其技術采納傾向。”[16]隨著Sora的推廣及開放應用,用戶在實際應用過程中將不斷調(diào)整對此技術的信任程度,信任可能促使用戶采用該技術,而不信任可能導致用戶棄用。需要注意的是,在這調(diào)整的過程中還需彌合外部風險因素與人的主觀感知的差距,并非所有人都能精準地、無差別地感知到人工智能的技術風險,因此,提升用戶對人工智能技術風險的認知能力,確保用戶能夠準確評估和判斷技術的潛在風險,對于建立合理的信任閾值至關重要。準確的風險預測和評估是確保用戶建立正確信任基礎的關鍵因素。如果信任不正確,那么技術“脆弱性”所帶來的顯性風險和隱形風險將給人類帶來更多難以想見的危害。

(三)代理模式的人工智能信任

在計算機科學和人工智能領域,代理通常指的是智能體(Agent)對環(huán)境進行感知和行動的能力,這種智能體可以是軟件程序、機器人、虛擬實體等。隨著人工智能技術的進步,使得代理信任的可行性增加了。人工智能代理(AI Agent)如今應用于各種領域,如:機器人、人機交互游戲、虛擬助理以及自動駕駛汽車等等,是面向未來的先進技術,能夠正確理解和響應人類的輸出,做出和人類一樣的判斷和決策行為。人工智能技術的發(fā)展使得信任代理的可能性出現(xiàn)。

喬伊斯·伯格(Berg, J)等三位實驗經(jīng)濟學家在1995年設計并進行了一項著名的“信任博弈”實驗。“在這個博弈中有兩個匿名的玩家:一個是信任者,另一個是受托人。信任者擁有一定數(shù)額的貨幣T,需要決定是否將其中一部分r發(fā)送給受托人,作為對其信任的表示。發(fā)送的金額rT會乘以一個因子K(K>0)然后由受托人接收。最后,受托人需要決定他們愿意將其收到的KrT中的哪一部分α返回給信任者?!盵17]“信任博弈”是一項經(jīng)典的研究任務,用于探討行為學和神經(jīng)科學中關于信任的問題。后有技術專家在此基礎上利用 “信念-欲望-意圖”(BDI)的框架建模測試,論證了LLM模型代理模擬人類信任行為的可行性,得出LLM代理信任與人類信任具有高度的一致性的結(jié)論。[18]

人工智能代理信任行為與人類信任行為是否具有一致性是重要的問題。在人機對齊的過程中,不僅僅需要行為對齊,更需要人工智能價值對齊(AI alignment),以人為尺度的價值對齊是人類通往未來的必經(jīng)之路,也是控制人工智能發(fā)展安全的重要問題。人們應該圍繞著自我的生活來對人工智能作出信任或者不信任的決定。人工智能價值對齊的缺乏將會給人類委托的代理信任協(xié)作帶來危機,對人工智能信任行為的持續(xù)監(jiān)管、評估和治理成為人工智能代理信任持續(xù)的保障。代理的人工智能信任是協(xié)作的信任,是預測人與人工智能能夠產(chǎn)生良性互動的結(jié)果。

“與失敗后可恢復的人際信任不同,當機器犯錯誤時,人們會對其可預測性和可靠性失去信心?!盵19]人工智能信任在“脆弱性”中逐漸成長起來,呈現(xiàn)出嶄新的信任樣態(tài),在對人工智能信任未來的探索過程中,以人為尺度是人工智能信任建設一切的基準。

三、 信任“脆弱性”的四象限與人工智能技術的未來關系

圍繞人工智能形成的“脆弱性”是多元的,包含了信任、人工智能技術以及兩者的關系本身等。信任與技術是兩個不同維度的概念但又彼此交織影響,信任是技術發(fā)展和應用的重要基石,技術則通過自身能力的提升來提高信任以促進社會整體信任的發(fā)展。從信任的“脆弱性”出發(fā)進行人與人工智能未來技術關系的探究是為未來世界做好準備的途徑之一。信任與人工智能技術的未來關系有以下的幾種可能,可以借用四象限法則來進行表示。如圖1所示:第一象限代表的是人工智能技術與信任的“雙重脆弱性”;第二象限代表的是積極的對抗“脆弱性”;第三象限代表的是消極的對抗“脆弱性”;第四象限代表的是“無關脆弱性”,每一個區(qū)域?qū)硎玖艘环N“脆弱性”信任與人工智能技術未來的可能關系形態(tài)。

算法信任︱雙重“脆弱性”與適度信任:從ChatGPT到Sora


信任“脆弱性”與技術“脆弱性”的四象限圖式

(一)第一象限:雙重“脆弱性”與人工智能技術的未來

第一象限代表了信任的“脆弱性”與人工智能技術未來的第一種可能關系,即人工智能信任與人工智能技術的雙重“脆弱性”關系,這是最為危險的狀態(tài)。這意味著不論在信任層面還是技術層面人類所面臨的風險值都過高了,急須降低風險以避免危險的發(fā)生。

通過降低信任的方式來調(diào)節(jié)技術的風險是有效的,但是信任風險的降低則需要通過更高層次的人類理智的調(diào)節(jié)。吉登斯在分析信任和其他相關的概念時指出,“對于一個行動持續(xù)可見而且思維過程具有透明度的人,或者對于一個完全知曉怎樣運行的系統(tǒng),不存在對他或它是否信任的問題”,他認為“尋求信任的首要條件不是缺乏權(quán)力而是缺乏完整的信息?!盵20]信任的“脆弱性”在某種程度上呈現(xiàn)出了和技術“脆弱性”相同的特征:即不透明、持續(xù)變化和缺乏完整信息。

人工智能算法的“算法黑箱”在一定程度上導致了人工智能信任的“信任黑箱”,換言之,對具有“算法黑箱”缺陷的技術產(chǎn)品的持續(xù)依賴是個體信任的盲目以及集體信任的無意識。這些兩者共有之的缺點潛藏著巨大的風險,容易成為商業(yè)競爭以及其他競爭中的利用對象。技術的“脆弱性”在根本上是難以消除的,信任的“脆弱性”則有賴于人類深層次理性的發(fā)生調(diào)整。從認識的本質(zhì)上來說,在生成式人工智能出現(xiàn)之前人工智能技術所做的工作大部分為抽象的總結(jié),正如埃文·阿姆斯特朗 (Evan Armstrong)所說,“人工智能是低級思維之上的抽象層?!盵21]這種較低層次的思考很大程度上是一種總結(jié)。因此,要解決信任“脆弱性”與技術“脆弱性”的雙重困境,依靠技術的方式是有限的。人們應該充分調(diào)動人類更高層次的智慧,例如理智、分析以及想象,即人類獨特的創(chuàng)造性活動,來應對人工智能技術與信任的雙重“脆弱性”,以滿足人類發(fā)展的更多可能。

(二)第二象限:積極的對抗“脆弱性”與人工智能技術的未來

第二象限代表了信任的“脆弱性”與人工智能技術未來的第二種可能關系,即以信任調(diào)節(jié)為主導的積極的對抗“脆弱性”的狀態(tài)。往往在同一時間內(nèi),技術“脆弱性”的增加與信任“脆弱性”的減少之間形成了一種負相關的關系,這導致兩者間形成了一種張力。但從總體上來說,信任“脆弱性”的減少被認為是更為關鍵和本質(zhì)的問題解決方式。

對抗性(Adversarial)這一概念在不同領域有不同的含義和應用,在機器學習和人工智能領域,對抗性訓練是一種提高模型魯棒性的方法。例如,OpenAI官方給出的紅隊測試方案,“我們正在與紅隊成員(錯誤信息、仇恨內(nèi)容和偏見等領域的領域?qū)<遥┖献鳎麄儗⒁詫剐苑绞綔y試該模型”。[22] 這一測試是指由網(wǎng)絡安全專家組成的團隊對該系統(tǒng)進行的一系列安全評估和滲透測試。這些專家被稱為紅隊成員,他們的職責是模擬潛在的惡意攻擊者,尋找并利用Sora系統(tǒng)中的安全漏洞或風險點。在紅隊成員之間的合作過程中,建立足夠的信任是至關重要的。此時信任問題不僅涉及到團隊合作的方面,也深入嵌套進Sora安全構(gòu)成的更加細致的方面。

因此,僅依賴對技術”脆弱性”的調(diào)控以期從根本上化解問題的方法并不足以奏效,信任問題始終構(gòu)成問題解決的核心要素。盡管人工智能技術在其解決方案中扮演的是輔助性而非決定性的角色,但這并不意味著人工智能技術應處于被動或無為狀態(tài)。相反,在應對由人工智能技術所帶來的社會復雜挑戰(zhàn)時,唯有通過多元主體共同采取積極行動,改變的可能性才能得以實現(xiàn)。

(三)第三象限:無關脆弱性與人工智能技術的未來

第三象限代表信任脆弱性與人工智能技術未來的第三種可能關系,即無關脆弱性。這種情況說明在人工智能發(fā)展過程中,信任脆弱性與技術風險之間達到了平衡狀態(tài)。當這種平衡狀態(tài)顯現(xiàn),人工智能信任將發(fā)揮最大作用,為人工智能的安全發(fā)展保駕護航。

如前文所述,信任脆弱性必須借助更高層次的人類智慧獲得解決辦法。在具體實施層面,關鍵在于設計適度的信任以及合適的信任平衡機制對信任脆弱性進行有效管理與調(diào)節(jié),進而影響技術的脆弱性,呈現(xiàn)這種平衡狀態(tài)意味著整體信任環(huán)境的健康和穩(wěn)定,有利于二者關系的進一步發(fā)展。整體的信任環(huán)境潛在地影響數(shù)字化社會中個體的行為和心理狀態(tài)。良好的信任環(huán)境能促進個體對人工智能技術的信任,良好的接受度對技術的發(fā)展具有促進作用;相反,如果信任環(huán)境脆弱,個體信任缺失,將影響技術的采納和應用。從某種意義而言,技術與信任展現(xiàn)的脆弱性并非毫無價值,而值得人類關注和維護。技術脆弱性揭示了技術本身固有的弱點,而信任脆弱性則映射了人類本質(zhì)的生物學屬性,反映了人性的固有弱點。

因此,一定限度內(nèi)的容錯率應被允許。無論技術系統(tǒng)還是信任系統(tǒng),都需要一定的容錯率。英國哲學家卡爾·波普爾(Karl Popper)提出“可證偽性”(Falsifiability)原則,他認為科學進步的動力在于不斷嘗試和糾正錯誤,而不是尋求最終的確定性。容錯率的存在不僅為降低風險,而且為激發(fā)系統(tǒng)在面對錯誤時的創(chuàng)新潛能,這種對可能性的拓展引發(fā)新的變革。

總之,在人工智能技術的發(fā)展過程中,信任脆弱性與技術風險之間達到平衡,不僅對技術的安全發(fā)展至關重要,而且對健康穩(wěn)定的整體信任環(huán)境的構(gòu)建、對未來世界的人機關系發(fā)展都具有重要意義。除此之外,在構(gòu)建信任脆弱性與人工智能技術未來關系的過程中,必須堅持以人為本的原則,確保技術發(fā)展與人類價值和諧共存。

(四)第四象限:消極的對抗脆弱性與人工智能技術的未來

第四象限代表信任脆弱性與人工智能技術未來的第四種可能關系,即以技術調(diào)節(jié)為主導的消極對抗脆弱性狀態(tài)。其忽略了對抗性行為背后的復雜性和異質(zhì)性。

對抗脆弱性通常涉及人的信任行為和決策,包括攻擊者和防御者。如果僅從技術出發(fā),可能忽視人的動機、心理和社會背景,這些因素對于理解和預防對抗脆弱性至關重要。根據(jù)拉圖爾“行動者網(wǎng)絡理論”(Actor-Network Theory,ANT),在 ANT中,行動者不僅包括人類個體,而且包括非人類實體,例如,技術、物體、動物,等等?!靶袆又械男袆诱卟⒎菃蝹€的、分離的,而是依附于特定網(wǎng)絡聯(lián)系而存在的某種實體,其中行動者既可以是人,也可以是物,他們平等地在集合的連鎖效應中發(fā)揮各自的能動性。對于拉圖爾而言,網(wǎng)絡從來不是可以簡單界定或假設的概念,它擁有一系列不同的拓撲形態(tài),期間的一些擁有十分鮮明的層級結(jié)構(gòu),期間的所有行動者都必須行動起來,而非僅僅待在那里?!盵23]從本質(zhì)看,信任與技術是異質(zhì)性的事物,這種異質(zhì)性在一定程度上限制了溝通與協(xié)作。但在“行動者網(wǎng)絡”視角下,異質(zhì)性行動者之間的關系構(gòu)成了網(wǎng)絡,這些關系不是靜態(tài)的,而是通過轉(zhuǎn)譯(Translation)過程動態(tài)形成。行動者之間通過交流和互動,將各自的意圖、目標和行為轉(zhuǎn)化為網(wǎng)絡中的共同行動。

人類對技術的依賴是養(yǎng)成性的,呈現(xiàn)“越用越依賴”的狀態(tài),逐漸地信任將過度,從而增加信任的脆弱性?!霸诩夹g信任中,我們相信技術以及設計和操作技術的人。這種信任一旦過度,技術的權(quán)力將大大增加,因為過度的信任意味著委托者(信任者)將要求更少的證據(jù)和付出更少的監(jiān)督。”[24]因此,為防止對技術的過分依賴加劇信任脆弱性,在構(gòu)建技術與信任的未來關系時,人類應持續(xù)保持審慎與警覺。在塑造技術與人類關系的過程中,必須平衡技術效能的發(fā)揮,避免對其產(chǎn)生過度依賴心理。

四、以適度信任的構(gòu)建,破解人工智能技術與信任的雙重“脆弱性”

在人工智能的發(fā)展過程當中,技術的風險無可避免。但是,信任可以影響甚至控制技術的發(fā)展道路,問題在于人們?nèi)绾螌⒅右岳?。“技術產(chǎn)生效用的提前條件是其被使用,若不被使用,效用就無法得以生成?!盵25]那么對Sora等生成式人工智能技術的正確的信任應該如何進行?在《尼各馬可倫理學》中講到,“我們應當選擇適度,避免過度與不及,而適度是由正確的邏各斯來確定的?!盵26]適度是美德的體現(xiàn),適度同時也需要以正確的邏輯為基礎。對Sora的正確信任需要符合以下幾點:

(一) 警惕風險:技術信任應以物理規(guī)律為基礎

基于人工智能技術風險的不可逆,人類應該對其設置一個信任底線,即所信任的人工智能產(chǎn)品必須符合物理世界的因果律?!度藱C對齊》的作者萊恩·克里斯?。˙rian Christian)指出,“我們發(fā)現(xiàn)自己正處于一個脆弱的歷史時期。這些模型的力量和靈活性使它們不可避免地會被應用于大量商業(yè)和公共領域,然而關于應該如何適當使用它們,標準和規(guī)范仍處于萌芽狀態(tài)。正是在這個時期,我們尤其應當謹慎和保守,因為這些模型一旦被部署到現(xiàn)實世界中,就不太可能再有實質(zhì)性改變?!盵27]Sora等生成式人工智能的應用與其帶來的傷害是不可逆的,對于Sora等生成式人工智能的開發(fā)應用人們一定要保持警惕,因為往往法律的規(guī)制并不夠那么及時。

在對Sora技術的深入分析中,我們發(fā)現(xiàn)盡管該技術生成的每一幀畫面在細節(jié)上可能是精確無誤的,但當這些畫面組合起來形成連續(xù)的敘述時,卻導致了整體上的失真。這種現(xiàn)象揭示了Sora在處理和表現(xiàn)時空關系方面的不足,突顯了模型在理解和模擬復雜現(xiàn)實場景時的局限性。[28]這種局限性可能會導致誤導性結(jié)果的輸出,尤其是在需要準確反映現(xiàn)實世界或教育相關的情境應用中。這種技術局限性如果未能引起足夠的關注,未能有合適公眾信任和監(jiān)管政策配套出現(xiàn),那么隨著技術的廣泛應用,將會帶來一系列不可預見的風險。例如,生成的內(nèi)容可能被用于誤導公眾意見、傳播虛假信息或侵犯個人隱私等。

基于這種情況,人工智能的快速發(fā)展對于法律規(guī)制和政策規(guī)制提出了“預見性”的要求。歐盟《人工智能法案》(EU AI Act)自2021年首次提出,一直到2024年3月13日才最終由歐洲議會投票通過,這是全球人工智能領域監(jiān)管進入一個新時代的標志性事件,但是也反映出了對AI監(jiān)管和治理的滯后性,從提出到通過,各方面的協(xié)商和協(xié)調(diào)整整用了近4年的時間。而在這四年間,生成式人工智能表現(xiàn)出了從DALL·E到ChatGPT再到Sora的節(jié)節(jié)突破。如今,全球性的AI安全已經(jīng)備受關注。2023年11月1日,首屆全球人工智能(AI)安全峰會正式發(fā)表了《布萊切利宣言》,這意味著人工智能對人類構(gòu)成了潛在的災難性風險已成為全球共識。[29]全球性的協(xié)商與關注將進一步推動事情的進展。

相較于數(shù)智時代人工智能模型大規(guī)模的創(chuàng)造,對其管理的需求變得更為迫切,在對人工智能技術合適的監(jiān)管政策出現(xiàn)之前,人類的信任應該起到一個過度和緩沖的作用。這種信任的建立應當根植于對技術行為與物理世界因果關系一致性的理性評估之上。只有當人工智能產(chǎn)品所展現(xiàn)的效能與物理世界的因果律相契合,人類的信任才能夠被合理地賦予。否則證明該技術產(chǎn)品的技術能力和安全保障都未能達到獲得人類信任的水平,深入地大規(guī)模地應用不能夠輕易地獲得允許和信任。

(二)正確認知:技術信任應以人類信任為最后尺度

信任在本質(zhì)上是一種認知現(xiàn)象。相較于技術缺陷可能導致的負面后果,對信任本質(zhì)理解的缺失可能帶來更為深遠的影響。對于個人來說,要深刻理解Sora等人工智能技術是一項艱巨的任務。鑒于技術領域的復雜性和不斷進步的特點,要求每個人都具備深入的技術知識和解決問題的能力是不現(xiàn)實的。大多數(shù)人可能缺乏必要的背景知識或?qū)I(yè)訓練,這使得他們難以跟上科技發(fā)展的步伐,更不用說對新興技術進行深入分析并提出問題的解決方案。特別是在人工智能領域,例如以Sora為代表的先進人工智能技術,其高深的技術門檻構(gòu)成了一道難以逾越的壁壘。認知層面的改變將指導行為層面的改變。

善用信任的關鍵是正確地認知信任。信任作為一種社會資本,應該被好好運用。尼古拉斯·盧曼(Niklas Luhmann)指出“信任作為一種社會資本積累起來,它為更大范圍的行為開放了更多的機會”[30]對于促進合作、增強社會凝聚力和推動經(jīng)濟發(fā)展具有不可替代的作用。然而,適度的信任的建立和維護并非易事,它需要個體、組織乃至整個社會對信任的本質(zhì)、功能和局限性有深刻的理解。盡管如此,人們還是應該嘗試從現(xiàn)存的事物和信息當中找出一些規(guī)律。在參與技術研發(fā)與應用的眾多群體中,技術專家尤為需要對信任有深刻的理解和認知。對于部分技術專家來說,人工智能技術的開發(fā)目標、安全性的倫理邊界,以及對人類信任的正確理解,往往被視為與其專業(yè)領域相距甚遠的問題。然而,真正令人擔憂的并非是數(shù)字化社會本身,而是那些在數(shù)字化及未來社會中處于領導地位的專家們。與工業(yè)等產(chǎn)業(yè)不同的是,人工智能產(chǎn)業(yè)與人類活動緊密相連,密切互動,并且其規(guī)模正在迅速擴展。規(guī)模產(chǎn)生影響力,又由于人工智能危害的不可逆,技術專家們的信任認知更應該得到注視。

人類的信任應當作為衡量Sora等人工智能技術發(fā)展應用的最終尺度。當Sora技術發(fā)展到能夠徹底模擬現(xiàn)實世界的程度時,它所帶來的安全挑戰(zhàn)和倫理考量也將顯著增多。例如,高度逼真的模擬環(huán)境可能會模糊虛擬與現(xiàn)實的界限,導致人類尤其是對人類現(xiàn)實世界還未建立完整認知的低齡群體產(chǎn)生在世界概念上的混淆,甚至可能被用于誤導公眾、制造虛假信息或侵犯個人隱私。除此之外,商業(yè)與競爭的驅(qū)動將會影響模擬現(xiàn)實世界的技術可能會被用于不當目的,如在沒有適當監(jiān)管的情況下進行社會工程或心理操縱。因此,隨著Sora技術的進步,必須先要建立技術專家群體對信任的正確認知,同時同步加強對其潛在影響的評估和監(jiān)管,確保技術的發(fā)展與社會價值觀和倫理標準保持一致。

(三)信任啟蒙:技術信任應向人類價值觀保持對齊

信任啟蒙無論在何時都是重要的,其關鍵的作用可以幫助個人正確地理解某項技術的可依賴程度,幫助當下的人們克服對技術的迷信與執(zhí)著。18世紀發(fā)生在歐洲的“啟蒙運動”推動了人類對理性的崇拜,幫助人類克服了歷史上長期的迷信、愚昧與執(zhí)著,主張了個人的自由和權(quán)利。如今的人工智能技術經(jīng)過長足的發(fā)展在人類世界當中走到了前所未有甚至可以說是至高無上的位置,這是令人感到擔憂的。正如埃隆·馬斯克所說:“這是人類歷史上第一次與遠比我們聰明的東西共處,所以我不清楚,我們是否真的能控制這樣的東西。但我認為我們可以期待的是,引導它朝著對人類有益的方向發(fā)展。我確實認為,這是我們面臨的生存風險之一,而且可能是最緊迫的風險?!盵31]

科研人員和技術專家們往往不太深入考慮人工智能開發(fā)的終極目標,而是采取一種逐步探索的態(tài)度,認為科學研究應該是自由的、不受限制的。實際上,人們不應該忘記技術是一把雙刃劍的道理,在弄清楚其對人類的可能風險之前,沒有什么技術是必須得到無限的探索和增長。

以Sora為代表的人工智能技術正在以更低的技術門檻走進人類日常創(chuàng)作與生活。因為其技術門檻更低,生成的內(nèi)容更鮮活,所以更加受到人們的追捧與青睞。當Sora最終實現(xiàn)其模擬世界的意圖之后,人類世界將會變成什么樣?無疑,人與人工智能之間的張力將會達到最終的閾值并且產(chǎn)生對抗,“人和機器的對抗不是精神的對抗,而是實力的對抗。取勝不是在精神上或精神高度的勝利,而是在物質(zhì)上或控制住低端的勝利。那是,機器語言將戰(zhàn)勝人類的自然語言。”[32]這是所有人類都不愿意見到的事情。所以,對于人工智能信任的啟蒙是重要的,其中最優(yōu)先要進行的就是對人工智能技術專家的信任啟蒙,使他們在進行偉大創(chuàng)造的同時具有目的意識和責任意識,重新審視對技術的信任程度,其次也要致力于對廣大使用者的技術素養(yǎng)的培養(yǎng)和提升。

在人工智能技術領域,好奇心確保了人們對人工智能技術探索的開放態(tài)度。不過,好奇心需要受到人類理性的引導,由此引發(fā)向善的技術發(fā)現(xiàn)與科技進步,而不能讓這份好奇心成為了最后打開“潘多拉魔盒”的雙手,給人類帶來不可挽回的傷害。因為一旦人工智能技術可以通過特定的設計變成對人類的惡意的攜帶工具,那么資本與權(quán)力將培養(yǎng)更多的盲目信任,直到眾人的尊嚴與福祉再次遭到蠶食,人們才會想起信任適度的重要性。所以信任啟蒙有必要一開始就被植入到技術研發(fā)人員的研發(fā)期以及技術產(chǎn)品的成長期,只有在正確的信任認知上,人類才有可能讓人工智能的最終發(fā)展結(jié)果呈現(xiàn)出向善的狀態(tài)。

(四)信任修復:技術信任應以充分證據(jù)為重建依據(jù)

在人與人工智能之間的信任被破壞之后,人類該何去何從?當前被提出的人與人工智能技術信任的修復更多是一種技術性的行為。在博·施貝爾(Beau G)等人的信任研究中發(fā)現(xiàn),“擁有不道德自主隊友的團隊對團隊的信任度和對自主隊友的信任度顯著降低。不道德的自主隊友也被認為更加不道德。在違反道德規(guī)范后,兩種信任修復策略都無法有效恢復信任,自主隊友的道德與團隊得分無關,但不道德的自主隊友確實有較短的時間?!盵33]更復雜的人機交互是人工智能應用發(fā)展的事實。

人類期望人工智能可以像一個可靠的隊友一樣與人類進行并肩協(xié)作、解決難題。然而,與人和人之間的信任一樣,人與自主隊友之間的信任也時常遭到破壞。面對這種極具可能性的破壞,信任的修復方法是需要預先性思考的問題?!白灾麝犛训牡赖滦詫π湃斡酗@著影響:與不道德的自主隊友相比,人們更信任表現(xiàn)出道德行為的自主隊友。自主隊友的道德行為反映出了其道德價值選擇?!盵34]當前,科研人員和技術專家一致在嘗試人工智能技術的行為以及價值觀與人類行為及價值觀的對齊和校準。這說明,人類與自主隊友的合作本質(zhì)上已經(jīng)充分地將自主隊友看作一個高度獨立的角色,在與其合作的過程中前置性地嵌入了高度的信任。與人工智能技術的普遍運用無疑,這種信任是前置性的,也意味著沒有信任的付出就沒有合作的傾向。

然而,沒有充分的證據(jù)可以表明自主隊友在參與信任修復的過程中能明白自己在道德上的錯誤。所以,人們將人工智能代理視作有道德的行動者,對其信任的付出需要更多的邏輯證據(jù)為依據(jù)。對人工智能技術的信任需要基于邏輯和道德的證據(jù),而非盲目的前置信任,以避免信任斷裂和難以修復的后果。因此,信任修復只有在基于邏輯和道德的證據(jù)的信任付出之上才有可能,基于目前監(jiān)管和治理仍舊缺失的現(xiàn)狀,人們也應該預設到更多人工智能信任修復的場景,以積累對人與人工智能未來關系的修復條件。

五、適度信任:給技術以空間,給脆弱以安全

Sora作為人工智能技術的代表,引起了全球范圍內(nèi)的廣泛關注和熱烈討論。與之前的ChatGPT和DALL·E等技術相比,Sora展現(xiàn)出了更為強大的內(nèi)容生成能力,特別是其在動態(tài)視頻內(nèi)容方面的創(chuàng)造性,預示著人工智能在模擬現(xiàn)實世界方面具有著不可想象的巨大潛力。與此同時,這種潛力也暗含了風險,且這種風險不容忽視。

然而,從人類發(fā)展史的視角來看,技術是人類生存的必備品。基于此,忽視風險與因風險而盲目抑制技術發(fā)展同樣都不可取,只有對技術風險的積極應對才是確保人類健康發(fā)展的必要條件。目前,Sora所進行的紅隊測試作為一種模擬的對抗性測試旨在評估和提高系統(tǒng)的安全性和穩(wěn)定性,以降低技術風險,消除公眾對技術的恐懼、不信任等,促進Sora的安全發(fā)展。因此,隨著Sora從初步測試逐步過渡到實際應用,人們有必要對這項技術進行更為深入的理解和評估,以便形成適度的信任,更好地實現(xiàn)技術利用和技術效益的發(fā)揮。

Sora是人類創(chuàng)新帶來的技術結(jié)果。一方面,對這種創(chuàng)新的保護是人類世界進步的必要過程;另一方面,對這種創(chuàng)新的無限性需保持警惕,特別是對其未定的發(fā)展方向可能帶來的潛在風險設置合適的預案是人類必須持有的態(tài)度。審視技術發(fā)生的環(huán)境與目的,避免脫離技術發(fā)展的安全邊界,把人類的安全與福祉作為技術的最優(yōu)先級來考慮是人類研發(fā)技術必須守住的底線。易言之,技術的快速發(fā)展不應脫離倫理和安全的考量,必須確保Sora等技術的應用不會超越人類社會的安全邊界,確保技術發(fā)展方向與人類安全福祉相一致,這也是Sora等人工智能技術得以持續(xù)進步的前提。

基于上述兩個方面,以適度信任對抗技術“脆弱性”和信任“脆弱性”是確保人工智能健康發(fā)展的有效途徑。對于Sora而言,承載更高的預期也暗含著更高的風險,因此,給技術以空間與給脆弱以安全的雙重融合所形成的適度信任既可幫助Sora在“脆弱”的環(huán)境中成長,又可幫助人類規(guī)避Sora發(fā)展所帶來的風險。

【基金項目:本文系教育部哲學社會科學研究重大課題攻關項目“數(shù)字化未來與數(shù)據(jù)倫理的哲學基礎研究”(23JZD005)的階段性研究成果】

【作者簡介:閆宏秀,上海交通大學上海交通大學科學史與科學文化研究院教授、博士生導師;宋勝男,上海交通大學上海交通大學科學史與科學文化研究博士研究生。】

[1] 國家互聯(lián)網(wǎng)信息辦公室,《生成式人工智能服務管理辦法(征求意見稿)》,https://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm。

[2] Levine C, Faden R, Grady C, et al. The limitations of “vulnerability” as a protection for human research participants,The American Journal of Bioethics, 2004(3):44-49.

[3] OpenAI.Creating Video From Text,https://openai.com/sora#capabilities.

[4][英]安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,南京:譯林出版社,2011年版,第18-23頁。

[5] OpenAI.Creating Video From Text,https://openai.com/sora#research.

[6] OpenAI.Creating Video From Text,https://openai.com/sora#capabilities.

[7] Are Video Generation Models WorldSimulators? https://artificialcognition.net/posts/video-generation-world- simulators/#concluding-thoughts.

[8] OpenAI.Creating Video From Text,https://openai.com/sora#research.

[9] OpenAI.Creating Video From Text,https://openai.com/sora#safety.

[10] OpenAI.Video generation models as world simulators,https://openai.com/research/video-generation-models-as-world-simulators.

[11] Hoffman R R. A taxonomy of emergent trusting in the human–machine relationship,Cognitive Systems Engineering, 2017:137-164.

[12] [瑞士]海爾格·諾沃特尼:《未來的錯覺:人類如何與AI共處》,姚怡平譯,香港:香港中文大學出版社,2023年版,第4頁。

[13] Hoffman R R. A taxonomy of emergent trusting in the human–machine relationship,Cognitive Systems Engineering,2017:137-164.

[14] [英]安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,南京:譯林出版社,2011年版,第18頁。

[15] Hoff K A, Bashir M. Trust in automation: Integrating empirical evidence on factors that influence trust,Human factors, 2015 (3):407-434.

[16] Tan H, Hao Y. How does people's trust in automated vehicles change after automation errors occur? An empirical study on dynamic trust in automated driving,Human Factors and Ergonomics in Manufacturing & Service Industries, 2023 (6): 449-463.

[17] Berg J, Dickhaut J, McCabe K. Trust, reciprocity, and social history, Games and economic behavior, 1995(1):122-142.

[18] Xie C, Chen C, Jia F, et al. Can Large Language Model Agents Simulate Human Trust Behaviors? arXiv preprint arXiv:2402.04559, 2024.

[19] Beck H P, Dzindolet M T, Pierce L G. Operators' automation usage decisions and the sources of misuse and disuse[M]//Advances in human performance and cognitive engineering research. Emerald Group Publishing Limited, 2002: 37-78.

[20] [英]安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,南京:譯林出版社,2011年版,第29頁。

[21] Dan Shipper,The Knowledge Economy Is Over.Welcome to the Allocation Economy,https://every.to/chain-of-thought/the-knowledge-economy-is-over-welcome-to-the-allocation-economy

[22] OpenAI,Creating Video From Text,https://openai.com/sora#safety.

[23] [英]尼古拉斯· 蓋恩、 戴維· 比爾:《 新媒介: 關鍵概念》, 劉君、 周競男譯, 上海: 復旦大學出版社, 2015年版,第30頁。

[24] 閆宏秀、 宋勝男:《 智能化背景下的算法信任》,《 長沙理工大學學報( 社會科學版)》, 2020年第6期

[25] 閆宏秀:《負責任人工智能的信任模塑:從理念到實踐》,《云南社會科學》,2023年第9期。

[26] [古希臘]亞里士多德:《尼各馬可倫理學》,廖申白譯,北京:商務印書館,2003年版,第179頁。

[27] [美] 布萊恩·克里斯?。骸度藱C對齊 如何人工智能學習人類價值觀》,唐璐譯,長沙:湖南科學技術出版社,2023年,第27頁。

[28] OpenAI,Creating Video From Text,https://openai.com/sora#capabilities.

[29] 《首個全球性AI聲明:中國等28國、歐盟簽署》,https://hqtime.huanqiu.com/article/4FC8suObROX.

[30] [德]尼古拉斯·盧曼:《信任》,翟鐵鵬、李強譯,上海:上海人民出版社,2005年版,第85頁。

[31] 《首個全球性AI聲明:中國等28國、歐盟簽署》,https://hqtime.huanqiu.com/article/4FC8suObROX。

[32] 何懷宏:《GPT的現(xiàn)實挑戰(zhàn)與未來風險——從人類的觀點看》,《探索與爭鳴》,2023年第6期。

[33] Schelble B G, Lopez J, Textor C, et al. Towards ethical AI: Empirically investigating dimensions of AI ethics, trust repair, and performance in human-AI teaming,Human Factors, 2022.

[34] Schelble B G, Lopez J, Textor C, et al. Towards ethical AI: Empirically investigating dimensions of AI ethics, trust repair, and performance in human-AI teaming,Human Factors, 2022.

【本文首發(fā)于《新疆師范大學學報(哲學社會科學版)》2024年11月 第六期】

來源:閆宏秀,宋勝男(上海交通大學 科學史與科學文化研究院)

(本文來自澎湃新聞,更多原創(chuàng)資訊請下載“澎湃新聞”APP)

鮮花

握手

雷人

路過

雞蛋

關注我們:東遠物聯(lián)

抖音

微信咨詢

咨詢電話:

199-2833-9866

D-Think | 廣州東遠智能科技有限公司

地址:廣州市白云區(qū)北太路1633號廣州民營科技園科創(chuàng)中心2棟16樓

電話:+86 020-87227952 Email:[email protected]

Copyright  ©2020  東遠科技  粵ICP備2024254589號

免責申明:部分圖文表述來自于網(wǎng)絡,如有侵權(quán)請聯(lián)系作者刪除!