本周,一名工程師被 OpenAI 封禁了,而封禁理由是一段 1 分多鐘視頻:
是的,你沒看錯(cuò):這位網(wǎng)名為 STS 3D 的工程師,通過 OpenAI 的 ChatGPT 實(shí)時(shí) API,打造了一款能夠響應(yīng)指令、自動(dòng)瞄準(zhǔn)并迅速開火的自動(dòng)步槍——而這顯然違反了 OpenAI 的使用政策。 視頻爆火,引起了 OpenAI 的注意 據(jù)悉,這條視頻被上傳到 Reddit 后就迅速走紅,引發(fā)了廣泛的關(guān)注與討論。 從視頻中可以看到,STS 3D 做的這款自動(dòng)步槍,不論是反應(yīng)速度和射擊精確度,都令人十分印象深刻。它依賴于 OpenAI 實(shí)時(shí) API,能夠解析輸入并返回設(shè)備可理解的指令。只需簡單的訓(xùn)練,ChatGPT 就能理解“向左轉(zhuǎn)”之類的命令,并將其轉(zhuǎn)化為機(jī)器可讀的語言。 但也正是因?yàn)檫@種快速反應(yīng)和精準(zhǔn)射擊的能力,引發(fā)了公眾對(duì)自動(dòng)化武器系統(tǒng)濫用的潛在擔(dān)憂——尤其是當(dāng)這些技術(shù)被用于軍事目的時(shí),AI 技術(shù)的使用邊界就會(huì)變得更加模糊不清。 盡管 STS 3D 似乎并非有意打造致命武器,但他的自動(dòng)化步槍展現(xiàn)了一幅令人不安的未來圖景:即 AI 驅(qū)動(dòng)的武器系統(tǒng)能夠在沒有人類介入的情況下,自動(dòng)識(shí)別并消滅對(duì)手。 顯然,這種技術(shù)應(yīng)用讓 OpenAI 感到不安,與其推廣 AI 技術(shù)的初衷也完全相悖。 在接受外媒《Futurism》的采訪時(shí),OpenAI 發(fā)言人表示公司已觀看過相關(guān)視頻,并已封禁了這名開發(fā)者:“我們?cè)谑盏侥愕脑儐栔埃呀?jīng)主動(dòng)發(fā)現(xiàn)并識(shí)別了這一行為違反了我們的使用政策,并通知開發(fā)者停止這一活動(dòng)。” 雖然 STS 3D 的開發(fā)屬于個(gè)人行為,可毫無疑問的是,該事件反映出了一個(gè)更為嚴(yán)峻的現(xiàn)實(shí):隨著技術(shù)進(jìn)步,DIY(自制)自動(dòng)化武器的可能性越來越大,尤其是借助開源 AI 模型以及 3D 打印技術(shù),甚至可以在家中制造出能夠執(zhí)行致命任務(wù)的機(jī)器人——當(dāng) AI 與 3D 打印結(jié)合,DIY 自動(dòng)化武器的門檻或許就會(huì)變得越來越低。 有些危言聳聽?可如果結(jié)合最近發(fā)生的一系列事件來看,你會(huì)發(fā)現(xiàn)這種擔(dān)憂并不是無中生有。 人們所擔(dān)憂的 AI 應(yīng)用場景,變成了現(xiàn)實(shí) 一個(gè)月之前,美國聯(lián)合健康保險(xiǎn)公司 CEO Brian Thompson 被一名蒙面槍手槍殺,此事件震驚全美。事件發(fā)生 5 天之后,26 歲的犯罪嫌疑人 Luigi Mangione 在賓夕法尼亞州被警方逮捕,被捕時(shí)發(fā)現(xiàn)他持有一把黑色手槍與消音器,還有面具、假身份證和一份手寫宣言。 當(dāng)時(shí)警方就指出,Luigi Mangione 行兇的那把槍應(yīng)該是一把沒有序列號(hào)的“幽靈槍”,連同消音器一起,可能都是用 3D 打印機(jī)制造的 而在今年年初,美國特朗普國際酒店外發(fā)生了特斯拉賽博皮卡爆炸事件,37 歲的犯罪嫌疑人 Matthew Livelsberger 在車輛爆炸前開槍自殺。經(jīng)警方調(diào)查其筆記本電腦、手機(jī)和手表后,發(fā)現(xiàn) Matthew Livelsberger 曾在 ChatGPT 上搜索過有關(guān)爆炸目標(biāo)、彈藥飛行速度以及煙花在亞利桑那州是否合法等信息。 換句話說,Matthew Livelsberger 利用了 ChatGPT 等 AI 工具,策劃了此次爆炸襲擊并自殺。 在本周三警方公布的官方信息中,也已明確了這一點(diǎn):“確認(rèn)嫌疑人在策劃襲擊時(shí)使用了人工智能工具?!睂?duì)此,拉斯維加斯警察局局長表示:“據(jù)我所知,這是在美國本土發(fā)生的首例利用 ChatGPT 來幫助個(gè)人制造特定裝置的事件。這實(shí)在是一個(gè)令人擔(dān)憂的情況。” 至少在以上這兩個(gè)事件中,人們一直以來所擔(dān)憂的 AI 應(yīng)用場景變成了現(xiàn)實(shí)。同時(shí),我們也更切實(shí)地感受到:AI 正在面對(duì)倫理和安全方面的嚴(yán)峻挑戰(zhàn)——如何在推動(dòng)技術(shù)發(fā)展的同時(shí),確保其不會(huì)被濫用于不道德或危險(xiǎn)的領(lǐng)域,是一個(gè)亟需解決的問題。 科技公司所肩負(fù)的倫理和安全方面的責(zé)任 事實(shí)上,作為全球領(lǐng)先的人工智能公司之一,OpenAI 曾明確全面禁止將其包括 ChatGPT 在內(nèi)的產(chǎn)品用于武器研發(fā)。 可就在去年,OpenAI 悄然調(diào)整了其使用政策,刪除了“禁止將 OpenAI 技術(shù)用于軍事用途”的條文,但依然禁止用戶利用其服務(wù)開發(fā)或使用武器:“我們的服務(wù)不允許用于傷害自己或他人,包括禁止開發(fā)或使用武器?!?/span> 因此,盡管 OpenAI 封禁了如 STS 3D 這類的個(gè)人用戶,但這并不意味著軍事或防務(wù)承包商無法利用 AI 開發(fā)類似的武器系統(tǒng):例如上個(gè)月,OpenAI 宣布了與防務(wù)科技公司 Anduril 達(dá)成合作,進(jìn)一步推動(dòng)其在軍事領(lǐng)域的布局。注意,Anduril 是一家專注于開發(fā) AI 驅(qū)動(dòng)的無人機(jī)和導(dǎo)彈等高科技軍事裝備的公司,它與 OpenAI 的合作無疑將進(jìn)一步推動(dòng) AI 在軍事領(lǐng)域的應(yīng)用。 當(dāng)然,技術(shù)本身并不帶有道德判斷,如何使用這些技術(shù)才是關(guān)鍵。就像此次 OpenAI 對(duì) STS 3D 的封禁行為,看似只是一個(gè)違背其產(chǎn)品使用政策的懲罰,但也反映了科技公司在快速發(fā)展的 AI 技術(shù)面前,所肩負(fù)的倫理和安全方面的責(zé)任——在開發(fā)和應(yīng)用這些技術(shù)時(shí),必須時(shí)刻保持對(duì)其可能帶來的負(fù)面影響的警覺。 參考鏈接: https://gizmodo.com/openai-shuts-down-developer-who-made-ai-powered-gun-turret-2000548092 https://futurism.com/the-byte/openai-cuts-off-chatgpt-robot-rifle |
19款電子扎帶
電路板識(shí)別電子標(biāo)簽