如果我們把產(chǎn)業(yè)的發(fā)展看成是一個技術(shù)、產(chǎn)品、模式不停轉(zhuǎn)動深入的過程,那自chatGPT發(fā)布到o3可以看出是一個階段,而o3之后可以看成一個階段。 o3作為分水嶺其意義在于,在到o3這種水平之前核心問題是模型好使不好使,在此之后的核心則是到底怎么讓o3水平的模型發(fā)揮效力。(不是說模型不需要發(fā)展) 發(fā)揮效力的時候,如果只是從技術(shù)本身看待AI的挑戰(zhàn),看到的會全是提示詞怎么寫,這與AI會大范圍提供通用智能的本質(zhì)特征是錯位的。 一定需要從此延展縱深到更大的空間才可能理順應(yīng)用通路,顯然的蘿卜快跑事件不是來自于技術(shù)和產(chǎn)品,但它確實影響產(chǎn)品化的進程,而每個落地情景可能都面對小微型的蘿卜快跑式困境。 那在這個應(yīng)用通路中什么最關(guān)鍵? 第一是AI和人的關(guān)系問題這是未來各種應(yīng)用塑形的基礎(chǔ)和原點,在2024.12.29的AI碰撞局上北大國發(fā)院的侯宏老師提出了一個思考框架: 可能不好理解,但本質(zhì)是在說知識創(chuàng)造過程中如何界定人與AI的關(guān)系(更多相關(guān)文章大家可以參照侯老師的公號:)。 關(guān)注知識創(chuàng)造和流轉(zhuǎn)正是它成為一個原點問題的的原因。 因為在知識創(chuàng)造的過程中人、機的角色邊界最終就會變成應(yīng)用的邊界的決定因素之一。 人機是橫向切分的視角,如果再配上數(shù)據(jù)可獲取范圍的縱向視角,那基本就是AI應(yīng)用的潛在格局。 人、機邊界決定了應(yīng)用的形態(tài)和深度,決定到底以什么方式給個人、企業(yè)提供智能,比如是Copilot還是Autopilot。 數(shù)據(jù)可獲取邊界則決定了角色的功能邊界,到底提供什么,比如是教育還是法律還是其它。 第二,數(shù)據(jù)的可獲取性如上所說,數(shù)據(jù)的可獲取性決定應(yīng)用的功能邊界。 這里的關(guān)鍵有兩個: 一個是利益的各相同性,否則就不可能有源源不斷的數(shù)據(jù),沒有源源不斷的數(shù)據(jù)也就不可能越做越好,最終就只有低垂的果實。比如你給法院提供方案,那顯然數(shù)據(jù)沒法源源不斷,這不是各技術(shù)問題,而是個生產(chǎn)關(guān)系重構(gòu)的問題。需要復(fù)雜思考才可能找到一條真正可能的通路。 一個是數(shù)據(jù)自身的成本,成本是指長期確保高精度數(shù)據(jù)所要付出的成本。這個搞不好相當(dāng)于一個強大的AI周邊全是說假話的,它就不可能好使。 對于產(chǎn)品而言,這兩個都是個戰(zhàn)略問題,和后天努力關(guān)系不大,它先天決定產(chǎn)品的最終擴張的時候的邊際成本。 如果我們把AI應(yīng)用歸為兩個類別,一個是創(chuàng)造新效能,一個是創(chuàng)造新體驗,對于前者上面說的生死攸關(guān)。 第三,數(shù)據(jù)通路的通用性問題我們知道AI大模型的核心特征是能力的通用性。 我們假設(shè)AI大模型扮演大腦的角色,那這個腦子顯然既能收玉米也能摘桃子,可如果實際干活的時候如果觸手只有一種,比如像章魚一樣的爪子,那它就不能收玉米,只能摘桃子。 這時候不是模型能力不行,而是感知反饋通路的通用性不夠,兩者錯配。 這是和過去應(yīng)用的核心差異。 只要數(shù)據(jù)通路沒問題,AI可以提供任何功能,關(guān)鍵的不再是功能。 第四,AI應(yīng)用一定是系統(tǒng)型應(yīng)用AI應(yīng)用沒有小而美一說,因為數(shù)據(jù)的邊界是應(yīng)用的邊界,小范圍根本沒壁壘,要么被大模型本身吸收掉,要么被同類別的應(yīng)用吸收掉,只有極短的窗口期。 每個可能都和搜索、微信差不多,最終NO1的幾乎占據(jù)所有。 而一旦數(shù)據(jù)通路的通用性變關(guān)鍵,就會導(dǎo)致應(yīng)用往系統(tǒng)化方向發(fā)展,因為源是多的,需要表現(xiàn)出來的能力是需要動態(tài)變化的。前者衍生類似過去的硬件抽象層(HAL),后者衍生出來技能商店,這樣一來中間就比如有調(diào)度器(Scheduler)等作為kernel。
第五,自適應(yīng)自動駕駛和過去最大的區(qū)別是它的自適應(yīng)。 而所有未來的應(yīng)用幾乎都是需要具備自適應(yīng)能力。 當(dāng)累積足夠的全場景數(shù)據(jù)后,會有兩種進化模式一種則類似這種端到端的模型,這時候模型和應(yīng)用是不分的,數(shù)據(jù)回來會貢獻于更好的模型。 但還有一種情況則是更大量級的數(shù)據(jù)和更長的分析時間,可以得出更好的方案(利用o3的能力)。 顯然的,這時候系統(tǒng)的內(nèi)核則會劃分成兩個部分,一部分負責(zé)快思考,一部分負責(zé)慢思考。 對于系統(tǒng)型應(yīng)用它絕大部分功能是自主完成的。這時候一部分是要實時處理各種響應(yīng),一部分則是要迭代并總結(jié)自己的行為進行改善。這兩個活顯然是要分開做的。所以系統(tǒng)型應(yīng)用的kernel部分,需要雙系統(tǒng)分立。
小結(jié)也許寫的看起來有點夸張和獨斷,但這是一種必然性的脈絡(luò),這種脈絡(luò)很像方法的方法,往往不以人的意愿而改變。我應(yīng)該還是有點資格這么說,參見:AI的脈絡(luò):非共識時刻的認(rèn)知價值,這是前面做的脈絡(luò)判斷,大致是準(zhǔn)的。
上面的論文能看看思路,實際做有問題的。 1. 系統(tǒng)肯定不是在現(xiàn)在系統(tǒng)上的增強,而是現(xiàn)有系統(tǒng)之上的再定義,所以和現(xiàn)有系統(tǒng)的關(guān)系大概率不對。 2. 雙系統(tǒng)的例子不好,它那例子不需要雙系統(tǒng)。 |
19款電子扎帶
電路板識別電子標(biāo)簽