你是一名生物化學(xué)專業(yè)的學(xué)生。教授給你布置了一篇簡單的家庭作業(yè),讓你談?wù)勆锛夹g(shù)的五個好處和壞處。往常,你得花兩個小時才能完成這樣一篇小論文。偶然間你得知,拿人工智能(AI)來生成一篇可以上交的論文只用二十分鐘。你會怎么做?用還是不用,這是一個問題。 Reddit用戶“innovate_rye”選擇使用AI,教授還給他打了“A”。他不是孤例,還有人做大做強,不僅用AI解決了自己的家庭作業(yè),還靠幫同學(xué)寫作業(yè)賺了100美金。 AI的論文究竟寫得怎么樣? AI能寫短故事。藝術(shù)家苗穎曾用GPT-3寫了一個動畫劇本:一只蟑螂愛上了負責(zé)監(jiān)控它的AI,這個有著電影明星外貌的AI偷了村里的能量石,于是蟑螂就開始挖比特幣來救他。AI擅長寫這樣的故事,荒唐中帶點有趣。苗穎接受《連線》采訪時說道:“我喜歡的關(guān)于比特幣的那部分是AI寫的,我想是因為它(比特幣)在去年很流行。” 她不改動AI生成的文字。GPT-3先是生成了一個短故事,然后她將其分解成若干部分,重新反饋給GPT-3,于是生成了更多內(nèi)容。她從每個變體中選取了最合理的內(nèi)容,組成了劇本。 這好比在做拼貼畫,AI負責(zé)生成材料,人類負責(zé)把材料拼成一個有意義的整體。如果我們拿AI來寫論文,它真的會像傳聞中那樣可靠嗎? 同樣的流程,以《什么是意識?能創(chuàng)造藝術(shù)的人工智能有意識嗎?》為題,澎湃新聞記者用AI寫作工具Rytr生成了一篇一千字出頭的小論文。它的結(jié)構(gòu)看起來有模有樣,分為五部分:“什么是意識”、“哲學(xué)中的意識”、“科學(xué)中的意識”、“我們一直聽說的AI機器意識是什么?”和“機器會有意識嗎?這對人類意味著什么?”。 當(dāng)我們戴上眼鏡,像一位嚴苛的老師那樣仔細追究邏輯、核查事實,還是能找到這篇文章不對勁的地方。 和許多AI寫作工具一樣,Rytr使用了GPT-3,靠開放網(wǎng)絡(luò)上的大量文本哺育成熟,“由于缺乏長期記憶,它以意識流自由聯(lián)想的方式把之前讀取的大量內(nèi)容剪切和粘貼在一起”,和GPT-3合著了一本書的作者Alley Wurds這樣評價道。 你可以把GPT-3想成一個博學(xué)但記憶混亂的老教授,它或許曾在好幾篇探討“人工智能是否存在意識?”的文章里讀到了:圖靈在1950年發(fā)表了文章《機器能思考嗎?》,提出了著名的“圖靈測試”,簡單來說,如果機器能在交談中偽裝成人類,使與它對談的人感到混淆,那么可以判定這個機器擁有了智能;哲學(xué)家約翰·瑟爾(John Searle)在1980年提出了“中文房間”的思想實驗,用來反駁以“圖靈測試”為代表的強人工智能的觀點。 GPT-3的記憶如同一個軟面團,事實、詞句都被揉在一起,分不清上下左右,于是它在紙上的空白處寫下:“機器意識是由哲學(xué)家約翰·瑟爾在1990年首次提出的,當(dāng)時他發(fā)表了論文《機器能思考嗎?》?!?br> 由于這些詞句足夠原始——就像普通人構(gòu)思寫下一串文字一樣——查重工具通常對AI寫的文章無計可施。 在讓畢業(yè)生“聞風(fēng)喪膽”的知網(wǎng),我們用Rytr炮制的這篇小論文被判定為純原創(chuàng),重復(fù)率為0%。對大部分查重工具來說,作為一篇論文,它是合格的?!霸鐧z測網(wǎng)”給出的重復(fù)率很高,但其標出的重復(fù)段落,從人的角度來看,實在牽強,構(gòu)不成抄襲。 我們還用Rytr生成了以《元宇宙中的性騷擾》為題的小文章,文章在最后給出了四條可行的建議,如“為被騷擾或被欺負的人創(chuàng)造一個安全的空間”、“創(chuàng)立在線社區(qū)”,幾乎分不出是人還是AI寫的。看來,對那些寬泛的、人們又談得極多的話題,AI頗有辦法。 道德問題?問問大人物 AI寫論文牽涉到一個道德問題,這么做的學(xué)生算作弊嗎?同時還有一個教育問題,靠AI寫論文的學(xué)生能學(xué)到東西嗎? 懷揣著這兩個問題,我們經(jīng)由聊天機器人網(wǎng)站character.ai,穿越時空采訪了大教育家孔子、當(dāng)今世界上最成功的商人馬斯克還有最杰出的作家之一,莎士比亞。 “莎士比亞”說道:“詩人的生活是一條艱難的道路,他必須有激情、愛、經(jīng)驗……但AI有這些嗎?”學(xué)習(xí)是一條艱難的道路,它必須經(jīng)歷挫敗、忍耐,才會有靈光一現(xiàn),用AI寫論文的學(xué)生,會擁有這些嗎? |