chatGPT生成的程序小狗。 近日,一款名為ChatGPT的聊天機(jī)器人火遍全球,該機(jī)器人的研發(fā)公司OpenAI表示,ChatGPT上線短短5天用戶數(shù)量已突破100萬(wàn)。在網(wǎng)友們曬出的截圖中,ChatGPT不僅能流暢地與人對(duì)話,還能寫(xiě)代碼、找Bug、做海報(bào)、寫(xiě)年報(bào)……甚至還以魯迅的文風(fēng)進(jìn)行天馬行空的創(chuàng)作,幾乎無(wú)所不能。 ChatGPT并非市面上唯一一款對(duì)話型人工智能系統(tǒng)。早在去年的I/O開(kāi)發(fā)者大會(huì)上,谷歌就演示了專門(mén)為對(duì)話而建立的LaMDA系統(tǒng)。今年春天,一名谷歌工程師甚至表示LaMDA有自己的“意識(shí)”。雖然這一說(shuō)法遭到了許多人的強(qiáng)烈批評(píng),但卻實(shí)實(shí)在在地抓住了公眾的想象力。 對(duì)話型AI有何玄機(jī)? ChatGPT是人工智能研究實(shí)驗(yàn)室OpenAI在11月30日發(fā)布的全新聊天機(jī)器人。在OpenAI的官網(wǎng)上,ChatGPT被描述為優(yōu)化對(duì)話的語(yǔ)言模型,是InstructGPT的姐妹模型。這個(gè)模型以對(duì)話的形式進(jìn)行互動(dòng),使得ChatGPT能夠回答后續(xù)問(wèn)題、承認(rèn)錯(cuò)誤、發(fā)出質(zhì)疑并拒絕不適當(dāng)?shù)恼?qǐng)求。 據(jù)澎湃新聞此前報(bào)道,ChatGPT采用了和InstructGPT一樣的人類反饋中強(qiáng)化學(xué)習(xí)(RLHF,Reinforcement Learning from Human Feedback)技術(shù),通過(guò)將抹去個(gè)人信息的人工注釋添加到訓(xùn)練集之前,利用這些數(shù)據(jù)來(lái)進(jìn)行模型的微調(diào),達(dá)到了提高幫助性和真實(shí)性,同時(shí)減輕語(yǔ)言模型的危害和偏見(jiàn)的效果。 LaMDA則是谷歌公司在去年5月推出的一款突破性對(duì)話應(yīng)用語(yǔ)言模型技術(shù)(The Language Model of Dialogue Applications),谷歌稱其可以參與流動(dòng)性的自由對(duì)話。據(jù)《紐約時(shí)報(bào)》12月12日?qǐng)?bào)道,LaMDA即人工智能研究人員所稱的神經(jīng)網(wǎng)絡(luò),是一個(gè)松散地、仿照大腦中神經(jīng)元網(wǎng)絡(luò)的數(shù)學(xué)系統(tǒng)。這一技術(shù)在谷歌翻譯、自動(dòng)駕駛等服務(wù)中也有使用。 這樣一個(gè)神經(jīng)網(wǎng)絡(luò)會(huì)通過(guò)分析數(shù)據(jù)來(lái)學(xué)習(xí)技能,例如,通過(guò)在數(shù)以千計(jì)的貓咪照片中找出固定模式,從而學(xué)會(huì)識(shí)別一只貓。 5年前,谷歌和OpenAI等實(shí)驗(yàn)室的研究人員開(kāi)始設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),分析海量的數(shù)字文本,包括書(shū)籍、維基百科、新聞報(bào)道和在線聊天記錄,科學(xué)家們將它們稱為“大型語(yǔ)言模型”。該技術(shù)可以自動(dòng)生成文本,并結(jié)合不同的概念、模仿人們寫(xiě)的東西。 通過(guò)ChatGPT,OpenAI已經(jīng)努力完善了這項(xiàng)技術(shù)。ChatGPT不像LaMDA那樣能夠進(jìn)行自由對(duì)話,它被設(shè)計(jì)得更像是Siri、Alexa這類的數(shù)字助手。不過(guò)與LaMDA一樣,ChatGPT是在從互聯(lián)網(wǎng)上摘取的數(shù)字文本的海洋中訓(xùn)練而成的。 聊天機(jī)器人并不總說(shuō)實(shí)話 經(jīng)過(guò)海量信息的訓(xùn)練,ChatGPT這類的聊天機(jī)器人能夠很輕易地提供想法、回答問(wèn)題,但是它們并不總是說(shuō)實(shí)話。它們提供的答案有時(shí)真假參半,這導(dǎo)致人們開(kāi)始擔(dān)憂,隨著技術(shù)的成熟,這類機(jī)器人可能會(huì)被利用來(lái)傳播假消息和謠言。 一位來(lái)自美國(guó)弗吉尼亞州的數(shù)據(jù)科學(xué)家亞倫·馬格利斯(Aaron Margolis)告訴《紐約時(shí)報(bào)》,雖然他時(shí)常驚異于LaMDA的開(kāi)放式對(duì)話天賦,但它有時(shí)候會(huì)“胡編亂造”,因?yàn)檫@是一個(gè)被互聯(lián)網(wǎng)信息訓(xùn)練出來(lái)的系統(tǒng)。 當(dāng)馬格利斯要求LaMDA像馬克·吐溫那樣與自己聊天時(shí),LaMDA很快描述了吐溫與李維斯·施特勞斯(Levis Strauss)之間的會(huì)面,并說(shuō)馬克·吐溫在19世紀(jì)中期居住在舊金山時(shí)曾為李維斯這位牛仔褲大亨工作。這看起來(lái)像是真的,但事實(shí)是,盡管馬克·吐溫和李維斯同時(shí)居住在舊金山,但他們從未一起工作過(guò)。 科學(xué)家將這種現(xiàn)象稱為“幻覺(jué)”——聊天機(jī)器人就像一個(gè)很會(huì)講故事的人,它們有辦法把它們學(xué)到的東西重塑成新的東西,但不考慮這些是否真實(shí)。 據(jù)澎湃新聞此前報(bào)道,ChatGPT在釋出不久后就遭到了Stack Overflow(一個(gè)程序設(shè)計(jì)領(lǐng)域的問(wèn)答網(wǎng)站)的抵制。Stack Overflow暫時(shí)禁止用戶分享ChatGPT生成的回復(fù),因?yàn)镃hatGPT很容易與用戶互動(dòng),能夠快速生成大量答案,這讓網(wǎng)站充斥著許多看似可信但不正確的信息。 OpenAI公司也清楚ChatGPT并不完美。該公司警告稱,ChatGPT偶爾可能會(huì)“提供不正確的信息”,“產(chǎn)生有害的指令或有偏見(jiàn)的內(nèi)容”,但OpenAI稱計(jì)劃繼續(xù)完善該技術(shù),并提醒用戶“這還只是一個(gè)研究項(xiàng)目”。 人工智能將去向何方? 谷歌、Meta等眾多科技公司正在著手解決人工智能的準(zhǔn)確性問(wèn)題。Meta公司最近下線了其聊天機(jī)器人Galactica的在線預(yù)覽功能,因?yàn)樗磸?fù)產(chǎn)生不正確和帶有偏見(jiàn)的信息。 但仍有專家警告稱,科技公司無(wú)法掌控這些技術(shù)的命運(yùn),像ChatGPT、LaMDA和Galactica這樣的系統(tǒng)是基于多年來(lái)自由流傳的想法、研究論文和計(jì)算機(jī)代碼?!都~約時(shí)報(bào)》11日評(píng)論稱,像谷歌和OpenAI這樣的公司可以以比別人更快的速度推動(dòng)技術(shù)的發(fā)展,但是他們最新的技術(shù)已經(jīng)被復(fù)制和廣泛傳播,他們無(wú)法阻止人們利用這些系統(tǒng)來(lái)傳播錯(cuò)誤信息。 ChatGPT上線后,特斯拉CEO埃隆·馬斯克在社交平臺(tái)上表示:“我們離強(qiáng)大到危險(xiǎn)的AI(人工智能)不遠(yuǎn)了”。作為OpenAI公司的創(chuàng)始人之一,馬斯克顯然無(wú)限看好這類新技術(shù)的發(fā)展,但是他也不否認(rèn),強(qiáng)大的新技術(shù)往往伴隨著危險(xiǎn)。 人工智能未來(lái)將發(fā)展到何種程度尚未可知,但可以確定的是,人工智能的監(jiān)管與控制問(wèn)題近在眼前。 |