97国产精品一区二区视频_国产午夜毛片色哟哟_惠民福利国产91精品看黄网站在线观看_搡老熟女老女人一区二区三区_国产做a∨在线视频观看免费_日韩 综合 婷婷 图_成人黄色一级毛片片_萧山本地第一网络媒体_亚洲国产精品无码久久久曰_亚洲欧美日韩岛国色图

快捷導(dǎo)航

挑戰(zhàn)一篇文章講清楚ChatGPT相關(guān)概念!小學(xué)生也能看懂!

2024-4-16 16:17| 發(fā)布者: admin| 查看: 269| 評(píng)論: 0
摘要: 生成式AI已經(jīng)發(fā)展數(shù)年,還是有不少人弄不清楚Transformer、GPT、大模型、AIGC這些詞匯的概念。有很多非從業(yè)者想要了解ChatGPT到底會(huì)如何影響我們,或者有很多當(dāng)?shù)?dāng)媽的被孩子問(wèn)到卻不知道怎么“幼兒園化”地把這些 ...

生成式AI已經(jīng)發(fā)展數(shù)年,還是有不少人弄不清楚Transformer、GPT、大模型、AIGC這些詞匯的概念。有很多非從業(yè)者想要了解ChatGPT到底會(huì)如何影響我們,或者有很多當(dāng)?shù)?dāng)媽的被孩子問(wèn)到卻不知道怎么“幼兒園化”地把這些概念講清楚。這篇文章,我們就來(lái)解決下這個(gè)問(wèn)題。

挑戰(zhàn)一篇文章講清楚ChatGPT相關(guān)概念!小學(xué)生也能看懂!


Transformer、GPT、InstructGPT、大模型、AIGC……你是不是被這個(gè)概念鬧暈了?

作為一個(gè)文科生+AIGC從業(yè)者+市場(chǎng)人,其實(shí)要搞懂ChatGPT等等晦澀的概念多多少少有些吃力,我想應(yīng)該會(huì)有不少人也有這種感覺(jué)。

但是我看了大部分市場(chǎng)上傳播的文章,依然晦澀難懂,造成了不少認(rèn)知門(mén)檻。

今天,我試著挑戰(zhàn),用一篇文章搞清楚ChatGPT的相關(guān)概念,一方面讓自己加深理解,另一方面,希望對(duì)各位有用。

一、Transformer


我的理解是,這是一種高級(jí)的“翻譯機(jī)器”,它能夠理解和翻譯不同語(yǔ)言之間的文本。為了幫助你更通俗地理解這個(gè)模型,我們可以將其比作一個(gè)有著超凡記憶力和注意力分配能力的多語(yǔ)言翻譯家。

這個(gè)翻譯家有以下幾種能力:
  • 自注意力機(jī)制:這個(gè)翻譯家在閱讀一段文本時(shí),不僅關(guān)注當(dāng)前的單詞,還能夠記住并考慮到整個(gè)句子或段落中的其他單詞。這種能力使得翻譯家能夠捕捉到文本中的重要信息和上下文關(guān)系,從而更準(zhǔn)確地理解和翻譯。
  • 位置編碼:就像翻譯家在閱讀時(shí)會(huì)注意到單詞在句子中的位置一樣,位置編碼幫助模型理解單詞的順序。這對(duì)于理解句子結(jié)構(gòu)和意義非常重要,就像我們知道“狗追趕貓”和“貓追趕狗”這兩個(gè)句子的意思完全不同。
  • 編碼器和解碼器:模型的編碼器部分就像翻譯家在理解原文時(shí)的大腦,它會(huì)分析輸入文本的內(nèi)容和結(jié)構(gòu)。而解碼器部分則像是翻譯家在創(chuàng)造譯文時(shí)的大腦,它會(huì)基于對(duì)原文的理解生成新的句子,相當(dāng)于設(shè)計(jì)了一個(gè)程序語(yǔ)言。
  • 多頭注意力:這就像是翻譯家有多個(gè)分身,每個(gè)分身專(zhuān)注于文本的不同方面,比如語(yǔ)法、詞匯選擇、文化背景等。通過(guò)這種方式,翻譯家可以從多個(gè)角度理解文本,從而做出更準(zhǔn)確的翻譯。
  • 前饋神經(jīng)網(wǎng)絡(luò):可以比作翻譯家在處理信息時(shí)的邏輯和分析能力,它會(huì)對(duì)編碼器和解碼器的輸出進(jìn)行進(jìn)一步的分析和加工,確保翻譯的準(zhǔn)確性和流暢性。


二、GPT


GPT,一個(gè)多層的Transformer解碼器,它就像是一個(gè)通過(guò)大量閱讀和學(xué)習(xí),掌握了許多語(yǔ)言知識(shí)和寫(xiě)作技巧的“虛擬作家”。這個(gè)作家不僅閱讀了大量的書(shū)籍和文章,而且還學(xué)會(huì)了如何根據(jù)上下文生成連貫、有意義的文本。

想象這個(gè)作家在成長(zhǎng)的過(guò)程中,沒(méi)有老師直接告訴他哪些句子是正確的,哪些是錯(cuò)誤的。相反,他通過(guò)閱讀大量的文本,自己學(xué)會(huì)了語(yǔ)言的規(guī)則和模式。這就是GPT模型的自監(jiān)督學(xué)習(xí),它通過(guò)閱讀大量未標(biāo)記的文本數(shù)據(jù),自己學(xué)習(xí)語(yǔ)言的結(jié)構(gòu)和用法。

這個(gè)作家首先通過(guò)廣泛的閱讀來(lái)積累知識(shí)(預(yù)訓(xùn)練),然后在需要寫(xiě)特定類(lèi)型的文章時(shí),他會(huì)針對(duì)這種類(lèi)型進(jìn)行專(zhuān)門(mén)的練習(xí)(微調(diào))。GPT模型也是如此,它首先在大量數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,然后在特定任務(wù)上進(jìn)行微調(diào),以提高在該任務(wù)上的表現(xiàn)。

在寫(xiě)作時(shí),這個(gè)作家只能根據(jù)他已經(jīng)寫(xiě)好的內(nèi)容來(lái)預(yù)測(cè)下一個(gè)字或句子,而不能提前知道后面的內(nèi)容。GPT模型使用因果掩碼來(lái)確保在生成文本時(shí),每個(gè)單詞只依賴(lài)于它之前的單詞,保證了文本的連貫性。

隨著時(shí)間的推移,這個(gè)作家不斷學(xué)習(xí)和積累經(jīng)驗(yàn),寫(xiě)作技巧也越來(lái)越熟練。GPT-1、GPT-2和GPT-3就像這個(gè)作家的不同成長(zhǎng)階段,每一代都比前一代閱讀了更多的書(shū)籍,掌握了更多的知識(shí),寫(xiě)作能力也更強(qiáng)。

到了GPT-3這個(gè)階段,這個(gè)作家已經(jīng)非常熟練,即使沒(méi)有或只有很少的示例,他也能夠?qū)懗龈哔|(zhì)量的文章。這意味著GPT-3能夠在沒(méi)有或只有極少的特定任務(wù)訓(xùn)練數(shù)據(jù)的情況下,理解和完成新的任務(wù)。

三、InstructGPT


什么是InstructGPT?

如果 GPT-3想象成一個(gè)聰明的學(xué)生,那么 InstructGPT則是這個(gè)學(xué)生經(jīng)過(guò)特別輔導(dǎo)后的樣子。

GPT-3這個(gè)學(xué)生雖然學(xué)習(xí)了很多知識(shí),但有時(shí)候回答問(wèn)題可能會(huì)離題、編造故事、或者帶有一些不公平的看法。同時(shí),他在進(jìn)行長(zhǎng)對(duì)話時(shí),有時(shí)會(huì)忘記之前說(shuō)過(guò)的內(nèi)容,導(dǎo)致對(duì)話不夠連貫。

為了讓這個(gè)學(xué)生更好地理解老師(人類(lèi)用戶)的意圖,并且按照老師的喜好來(lái)回答問(wèn)題,我們需要一種方法來(lái)調(diào)整他的學(xué)習(xí)方式,這就是“Alignment”(對(duì)齊)的概念。

為了讓GPT-3變得更好,我們給他請(qǐng)了一個(gè)特別的家教(RLHF),這個(gè)家教通過(guò)收集老師的反饋來(lái)知道哪些答案是好的,哪些是不好的。然后,家教用這些反饋來(lái)指導(dǎo)學(xué)生學(xué)習(xí),幫助他在未來(lái)給出更符合老師期望的答案。

四、ChatGPT(GPT3.5/GPT4.0)


我的理解是, ChatGPT就像是一個(gè)全能的、知識(shí)淵博的機(jī)器人圖書(shū)管理員,隨時(shí)準(zhǔn)備幫助你解答問(wèn)題和提供信息。而且,隨著時(shí)間的推移,它會(huì)學(xué)到更多的東西,變得更加聰明和有用。

這個(gè)機(jī)器人圖書(shū)管理員不僅知道很多關(guān)于書(shū)籍和文字的知識(shí),它還能理解圖片。所以,如果你給它看一張圖片,它不僅能告訴你圖片里有什么,還能根據(jù)圖片給你講一個(gè)故事或者回答你關(guān)于圖片的問(wèn)題。

五、大模型


如何理解這一概念?

我們用一個(gè)小學(xué)生也能理解的方式來(lái)解釋這些概念。

想象一下,有一個(gè)非常非常大的學(xué)校,這個(gè)學(xué)校有很多層樓和很多教室。這個(gè)學(xué)校就像是一個(gè)“大模型”,它有很多老師(參數(shù))和學(xué)生(數(shù)據(jù))。這些老師非常聰明,他們可以教很多不同的課程,比如數(shù)學(xué)、語(yǔ)文、科學(xué)等等。
  • 模型架構(gòu)設(shè)計(jì):這個(gè)學(xué)校的建筑(模型架構(gòu))設(shè)計(jì)得很特別,有很多教室和走廊,這樣老師們就可以在不同的教室里教不同的課程,而且學(xué)生們也可以輕松地從一個(gè)教室走到另一個(gè)教室。
  • 數(shù)據(jù)準(zhǔn)備:為了讓老師們教得更好,學(xué)校收集了很多教科書(shū)和練習(xí)冊(cè)(數(shù)據(jù)),這樣老師們就可以用這些資料來(lái)準(zhǔn)備課程,并且?guī)椭鷮W(xué)生們學(xué)習(xí)。
  • 計(jì)算資源:因?yàn)檫@個(gè)學(xué)校非常大,所以需要很多電腦和服務(wù)器(計(jì)算資源)來(lái)幫助老師們準(zhǔn)備課程和批改作業(yè)。
  • 優(yōu)化算法:學(xué)校還有一個(gè)非常聰明的校長(zhǎng)(優(yōu)化算法),他會(huì)確保老師們用最好的方法來(lái)教學(xué),并且?guī)椭鷮W(xué)生們?nèi)〉煤贸煽?jī)。
  • 正則化技術(shù):有時(shí)候,老師們可能會(huì)對(duì)某個(gè)課程太專(zhuān)注,忽略了其他課程。校長(zhǎng)會(huì)確保這種情況不會(huì)發(fā)生,讓所有的課程都得到平衡(這就是正則化技術(shù))。
  • 模型并行和數(shù)據(jù)并行:因?yàn)檫@個(gè)學(xué)校有很多學(xué)生,所以老師們會(huì)分成小組來(lái)教課(模型并行),同時(shí),學(xué)生們也會(huì)分成小組來(lái)學(xué)習(xí)(數(shù)據(jù)并行)。

現(xiàn)在,這個(gè)學(xué)校有很多成功的畢業(yè)生,比如GPT-3、BERT和T5等。他們都是在這個(gè)大學(xué)校里學(xué)習(xí)過(guò)的,現(xiàn)在他們可以幫助人們解決很多問(wèn)題,比如寫(xiě)作文、做數(shù)學(xué)題或者解答科學(xué)問(wèn)題。

所以,這個(gè)大學(xué)校(大模型)就像是一個(gè)能夠培養(yǎng)出很多聰明學(xué)生的好地方,雖然它需要很多資源和努力來(lái)運(yùn)營(yíng),但是它能夠幫助我們做很多事情,讓我們的生活變得更好。

六、AIGC(人工智能生成內(nèi)容)


想象一下,你有一個(gè)非常聰明的機(jī)器人朋友,它可以做很多事情,比如畫(huà)畫(huà)、寫(xiě)故事、甚至幫你做數(shù)學(xué)題。這個(gè)機(jī)器人朋友就是人工智能(AI)的一個(gè)例子。

AIGC(人工智能生成內(nèi)容):這個(gè)機(jī)器人朋友可以創(chuàng)造很多東西,就像一個(gè)會(huì)畫(huà)畫(huà)和寫(xiě)故事的藝術(shù)家。它可以畫(huà)出你想象中的圖畫(huà),或者寫(xiě)出一個(gè)關(guān)于你最喜歡的超級(jí)英雄的故事。這就是人工智能生成內(nèi)容,意味著機(jī)器人可以用它的大腦(AI技術(shù))來(lái)創(chuàng)造新的東西。

Diffusion(擴(kuò)散模型):想象你把一滴墨水滴進(jìn)清水里,墨水會(huì)慢慢散開(kāi),最后水變得渾濁。機(jī)器人朋友就像能夠把這個(gè)渾濁的水變回清澈一樣,它可以從一團(tuán)混亂的噪點(diǎn)中創(chuàng)造出清晰的圖畫(huà)。

CLIP(圖文表征模型):如果你給這個(gè)機(jī)器人朋友看很多圖片和它們的名字(比如“蘋(píng)果”、“小狗”、“汽車(chē)”),它會(huì)學(xué)會(huì)識(shí)別這些圖片。下次你給它看一個(gè)新的圖片,它就能告訴你圖片里是什么。

Stable Diffusion(穩(wěn)定擴(kuò)散模型):這個(gè)機(jī)器人朋友還可以根據(jù)你給它的提示來(lái)畫(huà)畫(huà)。比如你告訴它“畫(huà)一個(gè)快樂(lè)的小狗”,它就能畫(huà)出一個(gè)小狗的圖畫(huà),而且這個(gè)小狗看起來(lái)很開(kāi)心。

七、AGI(通用人工智能)


想象一下,如果這個(gè)機(jī)器人朋友不僅會(huì)畫(huà)畫(huà)和寫(xiě)故事,還能像人類(lèi)一樣理解世界,學(xué)習(xí)任何東西,并且可以做任何工作,那么它就像一個(gè)真正的小朋友一樣了。這就是通用人工智能,它能夠做任何人類(lèi)能做的事情。

現(xiàn)在的AI,比如GPT,就像是一個(gè)在某個(gè)特定領(lǐng)域(比如寫(xiě)故事)非常擅長(zhǎng)的機(jī)器人,但它并不像真正的小朋友那樣理解世界??茖W(xué)家們正在努力讓AI變得更像人類(lèi),但這是一個(gè)很大的挑戰(zhàn),需要很多時(shí)間和研究。

所以,AIGC就是讓AI像藝術(shù)家一樣創(chuàng)造內(nèi)容,而AGI是讓AI變得像人類(lèi)一樣理解和做事。

八、LLM(大型語(yǔ)言模型)


大型語(yǔ)言模型就像是一個(gè)非常非常聰明的圖書(shū)管理員,它讀過(guò)很多書(shū),知道很多關(guān)于語(yǔ)言的知識(shí),可以幫助我們做很多事情,甚至可以自己寫(xiě)故事。

想象一下,這個(gè)圖書(shū)館管理員每天都在閱讀圖書(shū)館里的成千上萬(wàn)的書(shū)籍。它通過(guò)閱讀這些書(shū)籍,學(xué)會(huì)了很多單詞、句子和故事。這就是大型語(yǔ)言模型的訓(xùn)練過(guò)程,它通過(guò)閱讀大量的文本數(shù)據(jù)來(lái)學(xué)習(xí)語(yǔ)言。

因?yàn)樽x過(guò)很多書(shū),這個(gè)管理員可以幫你做很多事情。比如,它可以給你講一個(gè)故事的摘要,或者幫你把一個(gè)故事翻譯成另一種語(yǔ)言,甚至可以告訴你一個(gè)故事里的人物是開(kāi)心還是傷心。大型語(yǔ)言模型也是這樣,它可以執(zhí)行很多不同的任務(wù),比如文本總結(jié)、翻譯和情感分析。

這個(gè)管理員之所以這么聰明,是因?yàn)樗幸粋€(gè)超級(jí)大腦,里面有很多“小房間”(參數(shù)),每個(gè)“小房間”都存儲(chǔ)著不同的信息和知識(shí)。大型語(yǔ)言模型也是這樣,它有很多參數(shù),這些參數(shù)幫助它記住和理解語(yǔ)言的復(fù)雜規(guī)則和模式。

當(dāng)你問(wèn)這個(gè)管理員一個(gè)問(wèn)題,或者給它一個(gè)主題時(shí),它可以給你一個(gè)答案或者講一個(gè)故事。它可以根據(jù)它讀過(guò)的書(shū)籍和學(xué)到的知識(shí),創(chuàng)造出連貫和有意義的文本。大型語(yǔ)言模型也是這樣,它可以生成新的文本,就像它自己在寫(xiě)故事一樣。

GPT-3、ChatGPT、BERT和T5就像是不同領(lǐng)域的圖書(shū)館管理員,有的可能更擅長(zhǎng)講故事,有的可能更擅長(zhǎng)解釋科學(xué)知識(shí),而文心一言就像是會(huì)寫(xiě)詩(shī)的圖書(shū)管理員。它們都有自己的特長(zhǎng),但都能幫助我們理解和使用語(yǔ)言。

九、Fine-tuning(微調(diào))


微調(diào)就像是在你已經(jīng)學(xué)會(huì)一項(xiàng)技能的基礎(chǔ)上,做一些小的改變和練習(xí),讓你能夠更好地完成一個(gè)特定的任務(wù)。這樣做可以節(jié)省時(shí)間,因?yàn)槟悴恍枰匦聦W(xué)習(xí)所有的東西,只需要專(zhuān)注于你需要改進(jìn)的部分。

舉個(gè)例子,你在學(xué)習(xí)騎自行車(chē)。你的爸爸或媽媽先帶你在一個(gè)空曠的大公園里練習(xí)(這就像是預(yù)訓(xùn)練模型,公園里的各種地形就像是大量的數(shù)據(jù),幫助你學(xué)會(huì)騎車(chē)的基本技巧)。

現(xiàn)在你已經(jīng)會(huì)騎車(chē)了,但是你想學(xué)習(xí)如何在你家附近的小山丘上騎(這就像是一個(gè)新的任務(wù),需要微調(diào))。因?yàn)樾∩角鸬穆泛凸珗@里的路可能不一樣,有上坡、下坡和彎道,所以你需要一些特別的練習(xí)來(lái)適應(yīng)這些新的情況。

你的爸爸或媽媽會(huì)帶你在小山丘上練習(xí)幾天,這樣你就會(huì)知道如何在上坡時(shí)蹬得更用力,在下坡時(shí)控制速度,在彎道時(shí)轉(zhuǎn)彎(這就是微調(diào)過(guò)程,你在學(xué)習(xí)如何應(yīng)用你已經(jīng)掌握的騎車(chē)技巧來(lái)適應(yīng)新的環(huán)境)。

微調(diào)的好處是,因?yàn)槟阋呀?jīng)知道怎么騎車(chē)了,所以你不需要再?gòu)牧汩_(kāi)始學(xué)習(xí),只需要做一些小的調(diào)整就可以了。這就像是微調(diào)一個(gè)已經(jīng)預(yù)訓(xùn)練好的模型,讓它適應(yīng)一個(gè)新的任務(wù),比如理解醫(yī)學(xué)文本。

十、 自監(jiān)督學(xué)習(xí)(Self-Supervised Learning)


自監(jiān)督學(xué)習(xí)就像是通過(guò)讀故事和玩游戲來(lái)學(xué)習(xí)新單詞,而不需要?jiǎng)e人告訴我們答案。這樣,我們可以用很多沒(méi)有標(biāo)簽的數(shù)據(jù)來(lái)訓(xùn)練模型,讓模型變得更聰明。

比如你正在讀一本非常有趣的故事書(shū)。你讀了很多頁(yè),學(xué)到了故事里的很多新單詞和句子。現(xiàn)在,如果你的朋友在旁邊,你可以玩一個(gè)游戲:你給他讀故事的一部分,然后遮住一些單詞,讓你的朋友猜下一個(gè)單詞是什么。這個(gè)游戲就像是自監(jiān)督學(xué)習(xí)。

在這個(gè)游戲中,你的朋友不需要?jiǎng)e人告訴他正確的答案是什么,因?yàn)楣适碌纳舷挛模ㄒ呀?jīng)讀過(guò)的部分)就是線索。你的朋友可以通過(guò)他已經(jīng)知道的單詞和故事的內(nèi)容來(lái)猜測(cè)下一個(gè)單詞。這就是自監(jiān)督學(xué)習(xí)的方式,模型通過(guò)已經(jīng)知道的信息來(lái)學(xué)習(xí)新的東西,而不需要額外的答案或標(biāo)簽。

以上,就是我的本周觀察和思考,歡迎討論。

專(zhuān)欄作家

黃河懂運(yùn)營(yíng),微信公眾號(hào):黃河懂運(yùn)營(yíng),人人都是產(chǎn)品經(jīng)理專(zhuān)欄作家。5年+運(yùn)營(yíng)實(shí)操經(jīng)驗(yàn),甲乙方市場(chǎng)/營(yíng)銷(xiāo)/運(yùn)營(yíng)經(jīng)驗(yàn),擅長(zhǎng)從0到1幫助企業(yè)搭建運(yùn)營(yíng)增長(zhǎng)體系,在項(xiàng)目管理、市場(chǎng)調(diào)研、消費(fèi)者心理研究、社媒營(yíng)銷(xiāo)等方面有較為豐富的實(shí)戰(zhàn)經(jīng)驗(yàn)。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來(lái)自 Unsplash,基于 CC0 協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

鮮花

握手

雷人

路過(guò)

雞蛋

關(guān)注我們:東遠(yuǎn)物聯(lián)

抖音

微信咨詢

咨詢電話:

199-2833-9866

D-Think | 廣州東遠(yuǎn)智能科技有限公司

地址:廣州市白云區(qū)北太路1633號(hào)廣州民營(yíng)科技園科創(chuàng)中心2棟16樓

電話:+86 020-87227952 Email:[email protected]

Copyright  ©2020  東遠(yuǎn)科技  粵ICP備2024254589號(hào)

免責(zé)申明:部分圖文表述來(lái)自于網(wǎng)絡(luò),如有侵權(quán)請(qǐng)聯(lián)系作者刪除!