就在剛剛,OpenAI 正式推出 ChatGPT search 功能。 調(diào)用的方式非常簡(jiǎn)單,ChatGPT 會(huì)根據(jù)你的問題選擇搜索網(wǎng)絡(luò),亦或者選擇通過點(diǎn)擊問題框左下角的「網(wǎng)絡(luò)」搜索圖標(biāo)手動(dòng)選擇搜索。 所有 ChatGPT Plus 和 Team 用戶,以及 SearchGPT 候補(bǔ)名單用戶,今天都可以訪問。Enterprise 和 Edu 用戶將在接下來的幾周內(nèi)獲得訪問權(quán)限。 值得注意的是,該功能將在未來幾個(gè)月內(nèi)向所有免費(fèi)用戶推出,但預(yù)計(jì)會(huì)有次數(shù)限制。 為了縮短我們與答案的距離,現(xiàn)在,用戶可以更自然、對(duì)話的方式提出問題,ChatGPT 可以選擇使用來自網(wǎng)絡(luò)的信息來回答。 同時(shí)通過后續(xù)問題進(jìn)行更深入的調(diào)查,ChatGPT 會(huì)考慮與用戶聊天的完整上下文,以便提供更好的答案。 在信息來源方面,ChatGPT 搜索利用第三方搜索提供商以及 OpenAI 的合作伙伴直接提供的內(nèi)容來提供用戶正在尋找的信息,比如與一些新聞和數(shù)據(jù)提供商達(dá)成了合作關(guān)系。 并且,OpenAI 還為天氣、股票、體育運(yùn)動(dòng)、新聞和地圖等不同類別使用新的視覺設(shè)計(jì)。 搜索能力更新之前,ChatGPT 擁有的知識(shí)局限于大模型的訓(xùn)練數(shù)據(jù),僅限于 2021 年至 2023 年之間。 OpenAI 表示,該搜索模型是 GPT-4o 的微調(diào)版本,使用新穎的合成數(shù)據(jù)生成技術(shù)進(jìn)行后訓(xùn)練,包括從 o1-preview 中提取輸出。注意,這里畫個(gè)重點(diǎn)——GPT-4o 的微調(diào)版本。 那化身為 AI 搜索引擎的 ChatGPT 能干些什么呢?我們也試著簡(jiǎn)單向 ChatGPT 詢問幾個(gè)問題。
ChatGPT 給出的答案內(nèi)容詳實(shí),充滿條理性,還貼心地附上了引用的信息來源。 又或者,我們?cè)囍儐枴刚鐙值纳蘸脱氣O的生日相差幾天?」面對(duì)中文語境下的問題,顯然 ChatGPT 的回答表現(xiàn)一般,甚至也有些數(shù)學(xué)偏科。 我們?cè)囍鴱?fù)現(xiàn) OpenAI 官方給出的問題示例「what are some great ways to fix up a backyard」。 這回,具體的圖片、引用來源、高質(zhì)量的回答倒是一應(yīng)俱全了。 制糖工廠的創(chuàng)新產(chǎn)品也羅列得十分清晰,這一點(diǎn),值得好評(píng)。 既然是 AI 搜索引擎,那自然是要考究時(shí)效性方面。 很不錯(cuò),身處廣州的我感覺這個(gè)回答可以得到滿分,看來以后出門不用看天氣預(yù)報(bào),隨手一問就可以了。 當(dāng)然,如果同一個(gè)問題反復(fù)問兩遍,根據(jù)引用的不同信息來源,我們得到的答案也會(huì)有所不同。而且,股市有風(fēng)險(xiǎn),投資需謹(jǐn)慎的免責(zé)聲明也沒落下。 最后,我們也試著在 Mac 桌面端詢問了蘋果本周發(fā)布的新品。這資料的詳細(xì)程度,以及條理性四舍五入可以充當(dāng)導(dǎo)購了。 當(dāng)然,以上只是簡(jiǎn)單實(shí)測(cè),不妨期待我們后續(xù)一手詳細(xì)的評(píng)測(cè)。 根據(jù) Similarweb 的數(shù)據(jù), ChatGPT 在 2024 年 9 月達(dá)到創(chuàng)紀(jì)錄的 31 億次訪問量,同比增長(zhǎng) 112%,成為全球訪問量第 11 大的網(wǎng)站。 值得注意的是,這甚至超越了 Bing。要知道,這還是 ChatGPT Search 尚未全量推送的結(jié)果。 也許再過幾年,成長(zhǎng)中的 20 后甚至?xí)泜鹘y(tǒng)搜索引擎應(yīng)該怎么用了。 只不過,希望那時(shí)已經(jīng)成為 Google 殺手的 ChatGPT 不要重演屠龍者終成惡龍的故事。畢竟目前 Perplexity 已經(jīng)撐不住成本,開始考慮競(jìng)價(jià)廣告了。 一如 Sam Altman 在 X 平臺(tái)表達(dá)的初心:
OpenAI 高管化身客服,在線解疑答惑在發(fā)布 ChatGPT Search 之后,OpenAI 還宣布在 Reddit 上進(jìn)行了 AMA 問答。 ChatGPT Search、模型、高級(jí)語音模式、未來的研究路線圖等等,只要問題在合理的范圍內(nèi),Reddit 用戶都可以提出問題,而參與的 OpenAI 高管也會(huì)一一作出回答。 一起來看看,有哪些值得注意的回答吧! Q:對(duì) 2025 年有什么大膽預(yù)測(cè)? Sam Altman:AI 將全面超越所有基準(zhǔn)測(cè)試。 Q:計(jì)劃未來繼續(xù)推出 o 系列的新模型嗎?例如,對(duì) GPT 3、4、4.0、5 等「常規(guī)」模型進(jìn)行改進(jìn)。是繼續(xù)這兩種方式,還是將它們結(jié)合起來? Kevin Weil:兩者都會(huì)繼續(xù)發(fā)展!我預(yù)計(jì),在某個(gè)階段,它們將會(huì)有所融合。 Q:Ilya 看到了什么? Sam Altman:Ilya 是一位卓越的遠(yuǎn)見者,他比大多數(shù)人更能清晰地預(yù)見未來。他早期的創(chuàng)見、熱情和愿景對(duì)我們所取得的成就至關(guān)重要。 例如,他是最初探索并積極倡導(dǎo)一些最終演變成 o1 項(xiàng)目的重要想法的關(guān)鍵人物之一。 這個(gè)領(lǐng)域能有他真是太幸運(yùn)了。 Q:你們什么時(shí)候給我們一個(gè)新的文本到圖像模型?Dalle 3 有點(diǎn)過時(shí)了 Sam Altman:下一次更新值得等待!但我們還沒有發(fā)布計(jì)劃。 Q:ChatGPT-5 或其類似模型的發(fā)布日期是什么時(shí)候?它將具備哪些特性? Sam Altman:我們今年晚些時(shí)候?qū)⑼瞥鲆恍┓浅3錾漠a(chǎn)品!不過,我們不會(huì)將其命名為 GPT-5。 Q:你好,OpenAI 團(tuán)隊(duì),謝謝你們舉辦這次 AMA。我想了解一下 SearchGPT 與主流搜索引擎相比,有哪些獨(dú)特的優(yōu)勢(shì)或關(guān)鍵特點(diǎn),能夠吸引普通搜索引擎用戶選擇使用它? Sam Altman:對(duì)于許多查詢,我發(fā)現(xiàn)使用 SearchGPT 能更快、更輕松地獲取所需信息。我認(rèn)為這種優(yōu)勢(shì)在需要進(jìn)行更復(fù)雜研究的查詢中尤為明顯。我也期待未來搜索查詢能夠動(dòng)態(tài)生成定制的網(wǎng)頁作為響應(yīng)。 Q:你們有沒有計(jì)劃增加 ChatGPT 可以存儲(chǔ)的內(nèi)存? Kevin Weil(OpenAI 首席產(chǎn)品官):你的意思是更長(zhǎng)的上下文窗口嗎?如果是這樣,是的。 Q:對(duì)使用 ChatGPT 進(jìn)行治療的人的看法? Sam Altman:雖然它顯然不是一名治療師,但很明顯,很多人通過與它討論問題而受益匪淺。 我們看到許多初創(chuàng)公司正在積極探索如何在這方面做得更好;我希望有人能創(chuàng)造出卓越的成果! Q:你好,我想咨詢一下 GPT 4.0 的上下文 token 數(shù)量何時(shí)會(huì)增加。我認(rèn)為,對(duì)于較長(zhǎng)的編程或?qū)懽魅蝿?wù)來說,32k 的容量與其他 AI 模型相比實(shí)在太小了。 Kevin Weil:同意。我們正在努力! Q:你會(huì)用 ChatGPT 來回答這些問題嗎? Sam Altman:有時(shí),是的。你能說說是哪些問題嗎? Q:是否有計(jì)劃為出版商提供集成服務(wù),以便他們能夠驗(yàn)證和注冊(cè)賬戶,從而查看在 ChatGPT 中的呈現(xiàn)方式?理想情況下,他們能夠看到自己的內(nèi)容是如何被引用的,以及引用的頻率。 Sam Altman:這是個(gè)好主意!我們會(huì)談?wù)勊?。不過,目前沒有計(jì)劃。 Q:ChatGPT 的搜索功能在幕后是否仍然使用 Bing 作為其搜索引擎? A:我們采用了一系列服務(wù),其中 Bing 是一個(gè)關(guān)鍵的服務(wù)。 Q:AGI 可以通過已知硬件實(shí)現(xiàn),還是需要完全不同的東西? Sam Altman:我們相信,可以通過當(dāng)前的硬件可以實(shí)現(xiàn) Q:完整的 o1 什么時(shí)候發(fā)布? Kevin Weil:soon(表情包) Q:為什么 O1 不支持圖像輸入? Kevin Weil:我們優(yōu)先考慮的是先將產(chǎn)品推向市場(chǎng),而不是等到它功能完備后再發(fā)布。圖像輸入功能將在 o1 版本中加入,而且 o 系列模型將在未來幾個(gè)月內(nèi)增加多模態(tài)、工具使用等新功能。 Q:Sora 的推遲是由于推理所需的計(jì)算資源或時(shí)間,還是出于安全考慮? Sam Altman:我們需要優(yōu)化模型,確保安全性、防止模仿以及其他方面的準(zhǔn)確性,并且還需要增加計(jì)算能力! Q:o1 將如何影響 scaling law? 你們會(huì)繼續(xù)遵循 scaling law 來增大 LLM 的規(guī)模,還是會(huì)因?yàn)橥评碛?jì)算時(shí)間的考慮,使得更小型的模型、更快速的推理和更長(zhǎng)的推理時(shí)間成為主要的研究方向? Kevin Weil:這并非是非此即彼的選擇,而是兩者都要——既要提升基礎(chǔ)模型的性能,也要增加推理時(shí)間計(jì)算的資源。 Q:作為一名經(jīng)驗(yàn)豐富的創(chuàng)始人和與許多人密切合作的人,您如何看待 AI 在創(chuàng)業(yè)開發(fā)過程中增強(qiáng)創(chuàng)始人的能力?創(chuàng)業(yè)將如何因此而改變? Sam Altman:我對(duì)這一點(diǎn)感到非常興奮! 如果 AI 能將創(chuàng)始人的生產(chǎn)力提升 10 倍,我們將會(huì)看到更多(且更優(yōu)秀的)初創(chuàng)公司的出現(xiàn)。這在許多方面都比擁有一個(gè) 10 人創(chuàng)始團(tuán)隊(duì)更為高效(例如,減少協(xié)調(diào)上的負(fù)擔(dān))。 雖然 10 倍生產(chǎn)力的提升目前看來還比較遙遠(yuǎn),但我相信這一天終將到來。AI 帶來的經(jīng)濟(jì)加速,特別是對(duì)初創(chuàng)公司而言,將是顯著的。 Q:我們何時(shí)可以獲得有關(guān) GPT-4o 圖像和 3D 模型生成的更多信息? Mark Chen:很快! Q:AVM 視覺功能何時(shí)能夠推出?為什么 GPT-5 的研發(fā)周期如此漫長(zhǎng)?o1 的完整版本何時(shí)發(fā)布? Sam Altman:我們正在優(yōu)先推出 o1 及其后續(xù)版本。 由于這些模型都變得非常復(fù)雜,我們無法像期望的那樣同時(shí)推出多個(gè)項(xiàng)目。(我們也面臨許多限制和艱難的選擇,關(guān)于如何將計(jì)算資源分配給眾多優(yōu)秀的想法。) 目前還沒有確定 AVM 視覺的發(fā)布日期。 Q:給 Sam Altman 的問題:你是草莓人嗎? Sam Altman: #歡迎關(guān)注愛范兒官方微信公眾號(hào):愛范兒(微信號(hào):ifanr),更多精彩內(nèi)容第一時(shí)間為您奉上。 愛范兒|原文鏈接· ·新浪微博 |
19款電子扎帶
電路板識(shí)別電子標(biāo)簽