觀察下面這張圖片,你認(rèn)為這是真實(shí)拍攝的,還是 AI 生成? 看著是有點(diǎn)可疑,比如有一些汽車的車門、堆起來的樣子,好像是拼接起來的。 那下面這兩張呢? 如果不仔細(xì)查證,你可能有點(diǎn)不信:它們?nèi)际桥臄z出來的“真照片”。 十月底開始,西班牙瓦倫西亞地區(qū)經(jīng)歷特大暴雨,一天的降雨量相當(dāng)于一年,還下得連綿不斷。 而瓦倫西亞地區(qū),街道有很多斜坡,這么大的水量完全可以讓汽車浮起來,并且沿著斜坡一路往下。最后當(dāng)洪水退去,就出現(xiàn)了最開始的照片中的景象。 可是在面對(duì)這些照片的時(shí)候,很多人的反應(yīng)是:AI 做的吧,假新聞。 也不能說這些人不講理,確實(shí)也是被騙到過。之前美國佛羅里達(dá)州被颶風(fēng)襲擊,一張穿救生衣的小女孩。在救生艇上抱著小狗流眼淚的圖片,就橫掃了社交網(wǎng)絡(luò)。 仔細(xì)看的話,這張圖比上面的暴雨圖“AI 味”更重,從手指細(xì)節(jié),到身體姿勢(shì),都有種說不出的怪異。 果不其然,原帖的帖主也并不知道這張圖是從哪兒來的,發(fā)出來只是為了表達(dá)自己的對(duì)受災(zāi)人民的同情。 現(xiàn)在,平臺(tái)已經(jīng)補(bǔ)充了背景信息,強(qiáng)調(diào)這是一張生成出來的圖片,而非真正拍攝出來的“照片”。 在救生衣女孩這張圖上,網(wǎng)友們的懷疑精神讓平臺(tái)迅速反應(yīng),補(bǔ)充了警告。但是同樣的懷疑精神,在另一場(chǎng)災(zāi)難中,就不再奏效。 畢竟,AI 生圖確實(shí)越來越真假難辨。又因?yàn)橐淮我淮?,總有人拿?AI 圖來博眼球,最后變成了大型“狼來了”現(xiàn)場(chǎng)。 越逼真,越危險(xiǎn) 在評(píng)價(jià)由 AI 生成的圖片或視頻時(shí),是否足夠?qū)憣?shí),一直是最重要的標(biāo)準(zhǔn)之一。 圖像是不是足夠?qū)憣?shí)、逼真,對(duì)背后的模型提出了很多挑戰(zhàn):是不是掌握自然語言的規(guī)則?是否理解了常識(shí)和現(xiàn)實(shí)世界的規(guī)律?能不能理解上下文當(dāng)中的信息,并且呈現(xiàn)出來? 這是對(duì)模型能力的考驗(yàn),也是反映各家技術(shù)力的有效指標(biāo)。 一開始,大家也為 AI 能夠生成出無比逼真的圖像而感到興奮。可是后來,越來越多的“開局一張圖,剩下全靠編”的新聞出現(xiàn)了,而且越來越難以分辨。 六月時(shí),社交媒體上出現(xiàn)西安發(fā)生特大爆炸的消息,時(shí)間地點(diǎn)俱全。但是西安警方核對(duì)之后,發(fā)現(xiàn)并沒有這回事。這條消息是用一家 MCN 機(jī)構(gòu)所持有的賬號(hào)發(fā)出來的。 被警方抓獲后,主犯交代自己是利用了 AI 工具,給定 prompt,工具就會(huì)自動(dòng)在網(wǎng)絡(luò)上抓取相關(guān)的文章,然后生成幾百到上千字的文本。 最高峰一天能生成 4000 至 7000 條信息,全程幾乎不需要人工參與,而且專門挑民生相關(guān)、熱度高的話題和事件——有研究表明,消極、負(fù)面、激發(fā)情緒的信息,往往更容易抓住人的注意力,這是由我們的頂葉和額葉區(qū)域結(jié)構(gòu)決定的。 一番操作下來,僅僅只靠發(fā)假消息,薅平臺(tái)流量,騙子的日均收入高達(dá) 1 萬元。這對(duì)于閱讀、轉(zhuǎn)發(fā)和評(píng)論了這種假消息的用戶來說,氣憤是在所難免的。 假照片還是實(shí)實(shí)在在地,騙過所有人的眼睛,造成了市場(chǎng)恐慌。去年五月時(shí),一張五角大樓發(fā)生爆炸的照片,迅速流傳。 還沒等專業(yè)的新聞機(jī)構(gòu)核實(shí),這張照片就迅速流傳。因?yàn)閯偤冒l(fā)布在美國股市當(dāng)天的開盤時(shí)間,很多投資相關(guān)的網(wǎng)站和社媒賬戶都轉(zhuǎn)發(fā)了,導(dǎo)致標(biāo)準(zhǔn)普爾 500 指數(shù)下跌 0.3%。黃金和美國國債的價(jià)格小漲了一波,有部分投資者把資金轉(zhuǎn)移到了更穩(wěn)健的產(chǎn)品上。 最后是轄區(qū)的消防部門出面辟謠,才讓事態(tài)平息。 太依賴“眼見為實(shí)”,不僅會(huì)傷害感情,還會(huì)傷害錢包啊。于是就出現(xiàn)了反向操作:一律打成 AI。 反向操作,只要不認(rèn)識(shí),就是 AI 圖 這樣做的背后,起碼有一個(gè)原因是成立的:躲開平臺(tái)的推送。 Meta 是明確表示要高舉 AI 大旗,扎克伯格認(rèn)為,有必要專門加一個(gè)版塊給 AI 生成或者輔助生成的內(nèi)容,他說,“我非常有信心,在未來幾年里,這將成為重要的趨勢(shì)之一和重要的應(yīng)用之一”。 Meta 旗下有 Facebook 和 Instagram 兩個(gè)重要的內(nèi)容平臺(tái),而在前者上,AI 生成內(nèi)容越來越多見,因?yàn)樗募?lì)政策很誘人:每個(gè)超過 1000 贊的帖子,最高可以獲得 10 美元的曝光獎(jiǎng)勵(lì)。 有一說一,如果能堅(jiān)定執(zhí)行“一律打成 AI”的路線,有效打擊假消息的傳播,倒逼平臺(tái)不再給這些內(nèi)容推流量、給補(bǔ)貼,說不定是個(gè)走得通的路子。沒有買賣,就沒有傷害。 然而,這種真假難辨的情況,可能會(huì)讓真正的傷害,消失在互聯(lián)網(wǎng)的信息海洋中。 互聯(lián)網(wǎng)觀察基金會(huì) IWF 報(bào)告,在過去六個(gè)月里,由人工智能制作的非法內(nèi)容數(shù)量已經(jīng)超過了前一年的總量。而且都是在社交平臺(tái)、公共圖庫等公開平臺(tái)上發(fā)現(xiàn)的。 這些非法內(nèi)容包括 AI 生成的兒童色情圖片、視頻;融合了明星名人的照片的 Deepfake 視頻;生成的兒童性虐待裸照等等。 更嚴(yán)重的問題是,很多 AI 生成的內(nèi)容已經(jīng)到了一個(gè)臨界點(diǎn)。由于過于逼真,工作人員不能輕易確定假圖里面是不是有真人,是不是真的有兒童遭到虐待、需要介入。 作為非營利組織,IMF 這樣的機(jī)構(gòu)只能是收集證據(jù)、與平臺(tái)交涉要求刪除。而真正有能力進(jìn)行更深一步調(diào)查的,只有警方和其他執(zhí)法人員。 當(dāng)海量的生成照片需要他們來處理,而這些照片都逼真的無人能辨別時(shí),“一律打成 AI”會(huì)導(dǎo)致真照片混雜其中,沒法被辨識(shí)出來,從而錯(cuò)過干預(yù)的機(jī)會(huì)。 IWF 的分析師表示,“我們所處理的幾乎所有包含 AI 生成的兒童性虐待材料的報(bào)告或鏈接,都是在明網(wǎng)上發(fā)現(xiàn)的。像我們這樣的組織或者警察,可能會(huì)被成百上千張新圖片壓垮,我們并不總能知道是否真的有一個(gè)孩子需要幫助”。 類似的,當(dāng)“狼來了”的游戲不斷擴(kuò)大,真正反映、通報(bào)險(xiǎn)情的消息,被安上“AI 做的吧”,從而錯(cuò)過最佳施救時(shí)間,也是一種惡果。 從“眼前為實(shí)”到“眼見不再為實(shí)”的過程中,消失的是在網(wǎng)上沖浪時(shí)的信任。出于自我保護(hù)、減少謠言散布,一律打成 AI 的確是一種有效策略。但一切都不值得相信的世界,會(huì)更好嗎? 本文經(jīng)授權(quán)轉(zhuǎn)載自APPSO(ID:appsolution),如需二次轉(zhuǎn)載請(qǐng)聯(lián)系原作者。歡迎轉(zhuǎn)發(fā)到朋友圈。 |