97国产精品一区二区视频_国产午夜毛片色哟哟_惠民福利国产91精品看黄网站在线观看_搡老熟女老女人一区二区三区_国产做a∨在线视频观看免费_日韩 综合 婷婷 图_成人黄色一级毛片片_萧山本地第一网络媒体_亚洲国产精品无码久久久曰_亚洲欧美日韩岛国色图

快捷導(dǎo)航

阿西莫夫三定律,還適用于今天的 AI 嗎?

2025-2-4 14:01| 發(fā)布者: admin| 查看: 136| 評(píng)論: 0
摘要: 作者 | 湯一濤編輯 | 靖宇1942 年,偉大的科幻作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說(shuō)《轉(zhuǎn)圈圈》(Runaround)中首次提出了「機(jī)器人三定律」。之后,這些定律因?yàn)樗亩唐≌f(shuō)集《我,機(jī)器人》而廣為流 ...
作者 | 湯一濤

編輯 | 靖宇

1942 年,偉大的科幻作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說(shuō)《轉(zhuǎn)圈圈》(Runaround)中首次提出了「機(jī)器人三定律」。之后,這些定律因?yàn)樗亩唐≌f(shuō)集《我,機(jī)器人》而廣為流傳。

1、機(jī)器人不得傷害人類,也不得因不作為而使人類受到傷害。

2、機(jī)器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突。

3、機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一或第二定律相沖突。

機(jī)器人三定律的影響是如此之大,它不但構(gòu)成了阿西莫夫所有機(jī)器人科幻小說(shuō)的組織原則,甚至滲透進(jìn)了之后幾乎所有的機(jī)器人科幻小說(shuō),以及所有引用它的書籍、電影、游戲等流行文化中。

例如,1966 年的短篇小說(shuō)《薩姆的密碼》中的「阿森尼翁機(jī)器人的三大法則」,就是對(duì)機(jī)器人三定律的改編;1999 年的電影《2001 太空漫游》中,羅賓·威廉姆斯(Robin Williams)飾演的機(jī)器人安德魯,通過(guò)其頭部的投影儀全息展示了機(jī)器人三定律;至于威爾·史密斯(Will Smith)主演的《我,機(jī)器人》,更是花費(fèi)整部電影的時(shí)間詳細(xì)討論了這三大定律。

阿西莫夫三定律,還適用于今天的 AI 嗎?


安德魯向新主人馬丁一家講解機(jī)器人三定律|圖片來(lái)源:medium

人們甚至發(fā)展出了一門專門研究人與機(jī)器人關(guān)系的學(xué)科——機(jī)器人倫理學(xué)。這是一門以人類為責(zé)任主體,研究如何開發(fā)和應(yīng)用機(jī)器人的倫理學(xué)。追蹤其源頭,就是阿西莫夫的三定律。

在阿西莫夫生活的年代,人工智能還處于相當(dāng)早期的階段。論文《神經(jīng)活動(dòng)中內(nèi)在思想的邏輯演算》(A Logical Calculus of Ideas Immanent in Nervous Activity)被視為人工智能學(xué)科的奠基石,這篇論文在機(jī)器人三定律發(fā)表后一年公布;直到 1956 年,達(dá)特茅斯人工智能夏季研討會(huì)召開,人工智能作為一門學(xué)科,才真正創(chuàng)立。

也就是說(shuō),機(jī)器人三定律是在一種小說(shuō)家社會(huì)實(shí)驗(yàn)的語(yǔ)境下誕生的。

如果借鑒原教旨主義的概念的話,機(jī)器人三定律可以算是機(jī)器人倫理學(xué)的原教旨主義。今天當(dāng)然還有眾多阿西莫夫的信徒,但是人工智能的現(xiàn)實(shí)環(huán)境已與當(dāng)初大不相同。

這讓人不禁十分好奇,在 AI 如此火熱的當(dāng)下,作為原教旨的機(jī)器人三定律,還能指導(dǎo)今天人與 AI 的關(guān)系嗎

01 作為創(chuàng)作工具的機(jī)器人三定律

很難脫離機(jī)器人三定律的創(chuàng)作背景討論它的意義。阿西莫夫在 1975 年接受 Sy Bourgin 采訪時(shí)提到,他創(chuàng)作機(jī)器人三定律的動(dòng)機(jī),是為了擺脫此前科幻小說(shuō)《弗蘭肯斯坦》式的套路——也就是機(jī)器人殺害主人,創(chuàng)造物最終會(huì)摧毀其創(chuàng)造者。

因此,從本質(zhì)上來(lái)說(shuō),機(jī)器人三定律不是一個(gè)全面的道德框架,它們是為故事服務(wù)的創(chuàng)作工具。它們被創(chuàng)作出來(lái)的目的,就是為了突出一種不確定性、一種沖突的潛在可能,以探討人與 AI 之間的灰色邊界。

一個(gè)有力的證據(jù)就是,在阿西莫夫的每一個(gè)故事中,機(jī)器人三定律都失敗了。阿西莫夫故意模棱兩可地創(chuàng)造了這 3 個(gè)定律,以便制造困境,讓角色和觀眾都面臨道德困境。

一旦運(yùn)用到真實(shí)世界,這 3 條被稱為「定律」的東西就會(huì)轟然崩塌。例如,巡航導(dǎo)彈、軍用無(wú)人機(jī)就是違反第一和第三定律的機(jī)器人。它們由計(jì)算機(jī)控制,只會(huì)做它們被編程去做的事情。如果它們被編程去傷害人類,它們就會(huì)傷害人類。

從語(yǔ)言學(xué)的角度來(lái)說(shuō),機(jī)器人三定律也是無(wú)法成立的。因?yàn)檫@ 3 項(xiàng)定律是用英語(yǔ)寫成的,英語(yǔ)是一種自然語(yǔ)言,本質(zhì)上是模棱兩可的,可以有多種解釋。因此,將機(jī)器人三定律編碼成精確的、機(jī)器可讀的指令是不切實(shí)際的。

來(lái)自武漢大學(xué)哲學(xué)系的克里斯·斯托克斯(Chris Stokes)更是在他的論文《Why the three laws of robotics do not work》中逐一解釋了為什么機(jī)器人三定律是行不通的:

1、第一條法則失敗是因?yàn)檎Z(yǔ)言上的歧義,以及因?yàn)檫^(guò)于復(fù)雜的倫理問(wèn)題,這些問(wèn)題太復(fù)雜,無(wú)法簡(jiǎn)單地用是或否來(lái)回答。

2、第二定律失敗,因?yàn)橐笥懈兄纳锉3峙`狀態(tài)的定律,本質(zhì)上是不道德的。

3、第三定律失敗,因?yàn)樗鼘?dǎo)致永久的社會(huì)分層,這個(gè)定律體系中內(nèi)置了大量的潛在剝削。

正如 iRobot 的創(chuàng)始人羅德尼·布魯克斯(Rodney Brooks)所說(shuō):「人們問(wèn)我,我們的機(jī)器人是否遵循阿西莫夫的法則。它們不遵循的原因很簡(jiǎn)單——我無(wú)法將阿西莫夫的法則植入它們體內(nèi)!」

iRobot 的名字正是來(lái)自于阿西莫夫的短篇小說(shuō)集《I,Robot》。這家公司最出名的兩個(gè)產(chǎn)品,是掃地機(jī)器人和軍用武裝機(jī)器人。

02 人類的恐懼

2022 年湯加火山的爆發(fā)曾經(jīng)引發(fā)過(guò)一場(chǎng)關(guān)于「無(wú)夏之年」的恐慌。歷史上,每逢無(wú)夏之年,都會(huì)引起氣溫驟降,進(jìn)而導(dǎo)致全球性的災(zāi)難。

上一個(gè)無(wú)夏之年發(fā)生在 1816 年,印尼的坦博拉火山爆發(fā)。積聚的火山灰讓全球氣溫至少下降了 0.4 度,氣候反常引起了全球范圍內(nèi)的饑荒、傷寒和暴亂。

那個(gè)「潮濕、不適、連綿降雨」的夏天,迫使新婚的雪萊夫婦滯留在了拜倫在日內(nèi)瓦湖畔的別墅。為了打發(fā)時(shí)間,拜倫提出了一場(chǎng)寫作比賽,看誰(shuí)能寫出最恐怖的故事。雪萊的妻子—瑪麗,在那段時(shí)間里寫出了《弗蘭肯斯坦》。

阿西莫夫三定律,還適用于今天的 AI 嗎?


1910 年,愛迪生工作室制作了《弗蘭肯斯坦》的第一個(gè)電影改編版|圖片來(lái)源:Wikipedia

今天我們記得《弗蘭肯斯坦》當(dāng)然是因?yàn)樗鞘澜缟系谝徊靠苹眯≌f(shuō)。但是請(qǐng)注意,瑪麗參加的可是一個(gè)恐怖故事比賽,《弗蘭肯斯坦》有什么恐怖的呢?

《弗蘭肯斯坦》講述的是生物學(xué)家弗蘭肯斯坦,利用人類尸體拼湊出了一個(gè)怪物。在被人類排斥的過(guò)程中,怪物對(duì)弗蘭肯斯坦產(chǎn)生了怨恨,殺死了他的眾多親友。弗蘭肯斯坦最后也因追捕怪物而死。

德國(guó)科布倫茨大學(xué)的烏爾里克·巴塞爾梅斯(Ulrike Barthelmess)和烏爾里?!じ柊秃眨║lrich Furbach)認(rèn)為,《弗蘭肯斯坦》反映出的是人類數(shù)千年內(nèi)心的恐懼,即人類不能像上帝那樣創(chuàng)造生物,任何試圖這么做的人都會(huì)受到懲罰。

另一個(gè)例子是 16 世紀(jì)的猶太神話里魔像(Golem)的傳說(shuō)。在其中的一個(gè)版本里,拉比利用粘土創(chuàng)造出了魔像,以保護(hù)猶太人社區(qū)。拉比承諾在每次安息日前關(guān)閉魔像以讓他休息。但有一次拉比忘記了,于是魔像變成了一個(gè)屠殺社區(qū)的怪物。

阿西莫夫三定律,還適用于今天的 AI 嗎?


布拉格的瑪哈拉爾與魔像,1899|圖片作者:Mikolá? Ale?

正如美國(guó)電影理論家布萊恩·亨德森 (Brian Henderson) 所說(shuō),重要的是講述神話的年代,而不是神話所講述的年代。換句話說(shuō),神話當(dāng)然是虛構(gòu)的,但是當(dāng)時(shí)的人們,出于何種動(dòng)機(jī)、何種背景,講述這樣的神話,才是真正重要的。

進(jìn)一步將「創(chuàng)造生物」這個(gè)概念擴(kuò)展開來(lái),這種對(duì)「創(chuàng)造物」的恐懼,或許也可以理解成一種對(duì)技術(shù)的恐懼。希臘神話里,因?yàn)閷⒒饌鞑ビ谌碎g,普羅米修斯受到上帝懲罰,每日受老鷹啄食肝臟之苦。在這個(gè)故事中,「火」即技術(shù)。有一種學(xué)術(shù)觀點(diǎn)認(rèn)為,正是因?yàn)檎莆樟嘶?,吃上了熟食,人類才不用耗費(fèi)大量的能量消化生食,才得以進(jìn)化出了發(fā)達(dá)的大腦。與此同時(shí),正是利用了其他動(dòng)物對(duì)火的恐懼,人類才得以在夜間抵御野獸。

巧合的是,《弗蘭肯斯坦》的副標(biāo)題恰好是「另一個(gè)普羅米修斯的故事」。

在近現(xiàn)代,人類對(duì)技術(shù)的恐怖更加常見。例如在工業(yè)革命時(shí)期的英國(guó),人們就對(duì)機(jī)器改變世界的能力產(chǎn)生了極大的恐懼,開始了一場(chǎng)專門摧毀紡織機(jī)的運(yùn)動(dòng)。這場(chǎng)運(yùn)動(dòng)的后果是如此嚴(yán)重,以至于議會(huì)立法將拆除機(jī)器定為死罪。其中一個(gè)被稱為「盧德分子」的團(tuán)體,甚至和英國(guó)軍隊(duì)爆發(fā)了沖突。在今天,「盧德分子」依然用來(lái)描述一切新科技的反對(duì)者,他們被稱為「新盧德分子」。

阿西莫夫三定律,還適用于今天的 AI 嗎?


盧德運(yùn)動(dòng)領(lǐng)袖,1812|圖片來(lái)源:Wikipedia

當(dāng)我們帶著恐懼的視角審視機(jī)器人三定律的時(shí)候,就可以看到其中充滿了對(duì)機(jī)器人的嚴(yán)防死守,以及背后幽微深長(zhǎng)的恐懼心理。 與此同時(shí),它天然將機(jī)器人置于了完全服從的奴隸地位(機(jī)器人 robot 源自捷克語(yǔ) robota,意思正是「強(qiáng)迫勞動(dòng)」)。這會(huì)成為一個(gè)問(wèn)題,取決于我們看待機(jī)器人的視角。當(dāng)我們把機(jī)器人視為「工具」時(shí),這是合理的;但是當(dāng)我們把機(jī)器人視為有感知的生物、甚至連自己也這么覺得時(shí),那這兩個(gè)「種族」就是天然矛盾的,沖突遲早會(huì)發(fā)生。

三江學(xué)院副教授、作家劉勃在描述魏晉南北朝時(shí)期,北方游牧民族和漢民族之間的民族仇殺時(shí)是這么解釋的:「當(dāng)經(jīng)濟(jì)優(yōu)勢(shì)和政治優(yōu)勢(shì)屬于同一方的時(shí)候,通過(guò)建立威權(quán)體系,勉強(qiáng)可以維持社會(huì)的正常運(yùn)轉(zhuǎn),一旦兩個(gè)優(yōu)勢(shì)分屬雙方,社會(huì)的撕裂也就難以避免?!?br>
這個(gè)問(wèn)題放在今天的世界仍然適用。

而眼下,AI 正在做我們認(rèn)為我們最擅長(zhǎng)的所有事情。在某些情況下,它要比人類表現(xiàn)得好得多。在肉眼可見的將來(lái),它也會(huì)越來(lái)越強(qiáng)大。

03 現(xiàn)實(shí)中的機(jī)器人法則

遺憾的是,目前現(xiàn)實(shí)世界中并沒(méi)有一部通行的法律實(shí)行。機(jī)器人、AI、自動(dòng)駕駛這些近似的概念相互混雜,有所交叉又各有不同;針對(duì)特定國(guó)家、地區(qū)制訂的建議、指導(dǎo)方針、道德框架可以說(shuō)是一鍋大雜燴。

在國(guó)家層面,歐美國(guó)家是最積極的立法推動(dòng)者。

歐盟 2024 年的 AI 法案是截至目前最嚴(yán)格的監(jiān)管法案。它禁止將 AI 用于社會(huì)評(píng)分目的(利用個(gè)人數(shù)據(jù)個(gè)性化推薦就是社會(huì)評(píng)分的范疇),限制 AI 在犯罪畫像中的使用,并要求對(duì) AI 生成的內(nèi)容進(jìn)行標(biāo)簽。對(duì)被歸類為對(duì)健康、安全或基本權(quán)利構(gòu)成高風(fēng)險(xiǎn)的 AI 開發(fā)者,歐盟 AI 法案制定了一系列特殊要求。

美國(guó)國(guó)會(huì)還沒(méi)有提出全面的關(guān)于 AI 的法案,但在州一級(jí),硅谷所在的加州最為積極。其州長(zhǎng)最近簽署了 17 項(xiàng)人工智能法案,包括從保護(hù)表演者的數(shù)字形象到禁止與選舉相關(guān)的深度偽造。加拿大正試圖采取與歐盟類似的方法,其執(zhí)政黨提議已經(jīng)提議了《人工智能和數(shù)據(jù)法案》(AIDA)。

相對(duì)于機(jī)器人三定律對(duì)人工智能的強(qiáng)烈限制,這些法案的共同點(diǎn)在于限制的主體是 AI 的創(chuàng)造者、使用者,也即人類本身。

阿西莫夫三定律,還適用于今天的 AI 嗎?


歐美國(guó)家對(duì)于 AI 的相關(guān)限制法案同樣心口不一|圖片來(lái)源:caravel law

與此同時(shí),歐美的監(jiān)管遭到了大型科技公司的反對(duì)。OpenAI CEO Sam Altman 就稱,如果監(jiān)管過(guò)于嚴(yán)格,OpenAI 可能會(huì)離開歐洲;扎克伯格也在 8 月發(fā)表了一篇評(píng)論,將歐盟的監(jiān)管方法描述為「復(fù)雜且不連貫」,警告這可能會(huì)破壞一個(gè)「一代人一次」的創(chuàng)新機(jī)會(huì),以及利用 AI 的「經(jīng)濟(jì)增長(zhǎng)機(jī)會(huì)」的機(jī)會(huì)。

在加拿大,亞馬遜和微軟的高管公開譴責(zé)了 AIDA,稱其含糊不清且負(fù)擔(dān)沉重;Meta 表示,它可能會(huì)推遲在加拿大推出某些人工智能產(chǎn)品。

而在一些非西方國(guó)家,態(tài)度則截然不同。他們優(yōu)先考慮的不是監(jiān)管,而是吸引大型科技公司的投資。印度是最典型的例子,它擁有中美以外最大的互聯(lián)網(wǎng)產(chǎn)業(yè)。目前,印度政府已投入 12 億美元用于名為「印度 AI」的倡議。其總理莫迪 9 月在一次圓桌會(huì)議上與硅谷 CEO 們會(huì)面時(shí),他敦促他們「在印度與世界共同開發(fā)、共同設(shè)計(jì)和共同生產(chǎn)」。

目前印度在人工智能領(lǐng)域尚沒(méi)有監(jiān)管。而科技巨頭方面,OpenAI 承諾通過(guò)大量投資開發(fā)者社區(qū)來(lái)支持印度 AI 倡議;亞馬遜已撥出數(shù)億美元支持印度人工智能初創(chuàng)企業(yè),并與印度理工學(xué)院(IIT)簽署了多年人工智能合作協(xié)議;微軟最近也承諾在印度投資 30 億美元,用于人工智能培訓(xùn)、云和人工智能基礎(chǔ)設(shè)施。

可以說(shuō),科技巨頭在一定層面上極大地影響了全球政府的政策。他們既是 AI 的創(chuàng)造者,也是最大的利益相關(guān)者。面對(duì) AI 這樣一種超越國(guó)界的國(guó)界的工具,各國(guó)可以制定自己的法律,但也必須就一些基本規(guī)則達(dá)成共識(shí)。畢竟,如果牌桌上連規(guī)則都沒(méi)有的話,這局游戲是必然要崩盤的。

04 AI 自己的建議

那么,機(jī)器或者 AI 自己,是如何看待這個(gè)問(wèn)題的?

最后,我們?cè)儐?wèn)了 ChatGPT,該如何完善阿西莫夫的機(jī)器人三定律,以下是它的回答:

1. 增強(qiáng)對(duì)人類自主性的尊重

阿西莫夫的第一定律強(qiáng)調(diào)了機(jī)器人不能傷害人類,或者因不作為而讓人類受到傷害。為了增強(qiáng) AI 對(duì)人類自主性和隱私的尊重,可以增加類似「AI 必須尊重個(gè)體的自主選擇和隱私權(quán)」的原則。例如:

新建議:「AI 必須尊重人類的自由意志、隱私權(quán)和選擇,避免對(duì)人類的決策產(chǎn)生不正當(dāng)影響。」 2.多層次的責(zé)任分配

阿西莫夫的定律中沒(méi)有明確如何界定 AI 錯(cuò)誤行為的責(zé)任,導(dǎo)致可能出現(xiàn)責(zé)任歸屬不清的問(wèn)題。在現(xiàn)代社會(huì),AI 系統(tǒng)的決策可能涉及復(fù)雜的道德和法律層面。因此,應(yīng)增加條款明確責(zé)任歸屬,避免「責(zé)任空白」。

新建議:「在 AI 行為引發(fā)的問(wèn)題上,應(yīng)明確 AI 使用者、開發(fā)者、監(jiān)管機(jī)構(gòu)等多方的責(zé)任,并對(duì)其行為進(jìn)行透明化追蹤?!?3.對(duì) AI 的自我意識(shí)和自我約束的控制

阿西莫夫的三定律基于機(jī)器人沒(méi)有自我意識(shí)的假設(shè),但隨著 AI 技術(shù)的發(fā)展,越來(lái)越多的 AI 系統(tǒng)具備了某種程度的自我學(xué)習(xí)和適應(yīng)能力。為了防止 AI 做出不符合人類利益的決策,建議在 AI 系統(tǒng)中嵌入「自我約束」的機(jī)制。

新建議:「AI 系統(tǒng)必須具備自我約束機(jī)制,確保其行為始終符合人類的倫理標(biāo)準(zhǔn),并具有撤銷決策或行為的能力?!?4.強(qiáng)化道德與倫理框架

隨著 AI 在社會(huì)各個(gè)層面的深入應(yīng)用,其決策不僅關(guān)乎技術(shù)層面的合理性,還涉及倫理問(wèn)題。例如,AI 在醫(yī)療、司法等敏感領(lǐng)域的決策需要更加謹(jǐn)慎。因此,可以建議在三定律中明確規(guī)定 AI 系統(tǒng)必須在處理決策時(shí)考慮倫理和社會(huì)價(jià)值觀。

新建議:「AI 應(yīng)始終遵循公認(rèn)的道德和倫理標(biāo)準(zhǔn),并在處理復(fù)雜決策時(shí)優(yōu)先考慮公平、正義和人類福祉。」 5.可調(diào)節(jié)性與透明度

現(xiàn)代 AI 系統(tǒng)往往是黑箱式的,難以理解其決策過(guò)程。為了增強(qiáng)人類對(duì) AI 的信任,需要規(guī)定 AI 系統(tǒng)應(yīng)當(dāng)具備透明度,確保其行為和決策可以被理解、審查和調(diào)整。

新建議:「AI 的決策過(guò)程必須透明,且可由合適的主體審查和調(diào)整,以確保其行為符合社會(huì)規(guī)范和人類利益。」 6.限制 AI 的目標(biāo)設(shè)定

如果 AI 的目標(biāo)設(shè)定不當(dāng),它可能會(huì)采取意外的手段去實(shí)現(xiàn)目標(biāo),導(dǎo)致對(duì)人類的潛在傷害。因此,AI 的目標(biāo)必須在設(shè)計(jì)階段就加以嚴(yán)格限制,確保其目標(biāo)始終符合人類長(zhǎng)遠(yuǎn)利益。

新建議:「AI 的目標(biāo)設(shè)定必須明確受限于人類福祉和社會(huì)整體利益,避免執(zhí)行可能導(dǎo)致長(zhǎng)期負(fù)面后果的目標(biāo)。」

不用說(shuō),上面這些大詞,和當(dāng)年阿西莫夫創(chuàng)作的「三定律」一樣,很難以代碼形式「植入」進(jìn)機(jī)器的「芯」中。

也許,正是這種難以完全理解和掌握,才更讓 AI 和機(jī)器人,更加的讓人們欲罷不能吧。

*頭圖來(lái)源:Salon

本文為極客公園原創(chuàng)文章,轉(zhuǎn)載請(qǐng)聯(lián)系極客君微信 geekparkGO

路過(guò)

雷人

握手

鮮花

雞蛋

關(guān)注我們:東遠(yuǎn)物聯(lián)

抖音

微信咨詢

咨詢電話:

199-2833-9866

D-Think | 廣州東遠(yuǎn)智能科技有限公司

地址:廣州市白云區(qū)北太路1633號(hào)廣州民營(yíng)科技園科創(chuàng)中心2棟16樓

電話:+86 020-87227952 Email:[email protected]

Copyright  ©2020  東遠(yuǎn)科技  粵ICP備2024254589號(hào)

免責(zé)申明:部分圖文表述來(lái)自于網(wǎng)絡(luò),如有侵權(quán)請(qǐng)聯(lián)系作者刪除!