GPT4最值得關(guān)心的6個(gè)問(wèn)題 | 見(jiàn)智研究
人工智能開(kāi)啟狂飆進(jìn)化路,見(jiàn)智研究(公眾號:見(jiàn)智研究Pro)特邀中信證券研究部高級副總裁【丁奇】一起來(lái)聊聊人工智能GPT4的最新進(jìn)展,并將核心內容整理如下:
摘要:
1、多模態(tài)帶來(lái)成本的提升是非常正常的。
(資料圖片僅供參考)
2、科技越往后成本會(huì )越低。從長(cháng)遠來(lái)看,OpenAI 的邊際成本將無(wú)限趨近于 0 。?
3、人機交互界面的改變是GPT3.5開(kāi)始被產(chǎn)業(yè)界重視的原因
4、多模態(tài)4.0的本質(zhì):所有的文字,語(yǔ)音,圖像,視頻都可以抽象成一組向量。GPT本質(zhì)上就是一個(gè)向量的輸入,通過(guò)它的相關(guān)性輸出另一組向量,從而轉換成圖像、語(yǔ)音或者視頻,本質(zhì)上是一樣的,不同的是所消耗的算力資源。
5、現在其實(shí)有兩個(gè)革命,一個(gè)是能源革命,基于鋰電池,從過(guò)去的化石能源到我們的現在的鋰電能源。另一個(gè)革命就是以ChatGPT為代表的 AGI通用人工智能,未來(lái)在有了更靈敏的機械反饋后,機器人就是最大的一個(gè)應用場(chǎng)景,但數字人一定會(huì )比機器人更先應用。
6、 AI演繹路徑:肯定是先軟件后硬件,先云端,后端,最后是邊端。
正文
丁奇:微軟將GPT4嵌入Bing、Office全家桶這是一次天作之合。GPT4的核心就是多模態(tài),能夠生成文字、圖像和視頻,這對搜索引擎和辦公有非常大的促進(jìn)作用,像搜索引擎的核心需要的不僅是鏈接,而是答案, GPT4就可以直接生成我們想要的具體關(guān)于某個(gè)問(wèn)題的答案。
我們平時(shí)一般通過(guò)辦公軟件、PPT、Word、Excel來(lái)生成內容,現在GPT成了非常強大的助手,比如一鍵生成PPT,極大促進(jìn)了辦公效率。所以我們認為微軟和OpenAI合作必將對生產(chǎn)內容帶來(lái)革命性的變化,也希望國內相關(guān)辦公軟件盡快推出相關(guān)的功能,讓人享受到辦公的便利。
見(jiàn)智研究:如何看待GPT4 的運行成本?
丁奇:首先GPT4現在并沒(méi)有公開(kāi)論文說(shuō)參數到底是多少,不過(guò)360董事長(cháng)周鴻祎先生根據GPT4的效果做了一個(gè)預估,可能是萬(wàn)億量級的參數。不過(guò)這點(diǎn)對于成本來(lái)講還沒(méi)有那么重要。
另外,過(guò)去的計價(jià)和現在的計價(jià),都是基于token,現在的單位計價(jià)貴了30倍左右(過(guò)去是1000個(gè)token0.002美元,現在是0.06美元)。為什么會(huì )更貴了?因為token的計價(jià)方式不同。通用計價(jià)方式是你看輸入的參數,現在輸入同樣詞更貴了,因為不能光看輸入端的成本,還要看輸出端的成本。過(guò)去的輸入和輸出都是文字,所以成本是比較低的。而GPT 4.0輸出完全可能是圖片,甚至以后是視頻,輸出量是大幅增加的,所以多模態(tài)帶來(lái)成本的提升是非常正常的。
見(jiàn)智研究:GPT 3.5 Turbo為什么能做到參數量更多,但是價(jià)格反而更低?
丁奇:3.5相比3.0,核心參數在調優(yōu)后是有所下降的。成本可以分為兩塊,一塊是訓練成本,一塊是推理成本。從3.0之后,模型是做好了一個(gè)大概的訓練,很多成本是有所攤銷(xiāo)的,到了3.5之后,大家攤的更多的是推理成本。
科技就是這樣的,在一開(kāi)始的時(shí)候肯定是貴的,因為它有大量的研發(fā)投入、大量的基礎設施投入。當然越往后它會(huì )越便宜,因為用的人越多,成本也會(huì )分攤的越多。
所以OpenAI 說(shuō),從長(cháng)遠來(lái)看,它的邊際成本是無(wú)限趨近于 0 的。其實(shí)就像我們現在的搜索引擎一樣,現在點(diǎn)一次搜索成本是極其低的。只不過(guò) 4. 0相比過(guò)去的 3. 5生成的內容不一樣,圖像、視頻對網(wǎng)絡(luò )帶寬、計算量消耗很大,所以短期成本也會(huì )提升。
見(jiàn)智研究:GPT4發(fā)布后,如何看待之前版本的價(jià)值量?GPT1、2、3、3.5到4代大模型的演進(jìn)變化是怎樣的?
丁奇:1. 0 是 2018 年出的, 2. 0 是 2019 年出的,但是其實(shí)在產(chǎn)業(yè)界沒(méi)有激起太大的水花,都是 transformer往 NLP(自然語(yǔ)言理解)上的嘗試。過(guò)去在NLP上大家體驗效果其實(shí)不太好的,比如語(yǔ)音的轉寫(xiě),翻譯效果其實(shí)是不太盡如人意的。
過(guò)去的人工智能,它的主要算法是基于CNN, RNN, LSTM這三種。它在模仿人的神經(jīng)元,認為信號是從一個(gè)神經(jīng)元傳遞到另一個(gè)神經(jīng)元的,也就是從一個(gè)單詞找到相鄰單詞之間的相關(guān)性。這種方法在圖像上特別有效,因為從圖像上來(lái)講,相鄰的顏色,紋理都會(huì )很相似,也誕生出了人工智能的CV領(lǐng)域。
但是像語(yǔ)音、文字就不一定是相鄰相關(guān)的,需要結合上下文的語(yǔ)境,甚至在前幾章就可能埋了伏筆,需要對上下文要有一個(gè)完整的記憶和解讀。關(guān)鍵就是如何讓機器能夠實(shí)現語(yǔ)境理解。
Transformer 架構提供了一個(gè)非常好的思路。既然我們生活中的理解、智慧、經(jīng)驗跟很多東西都相關(guān)。那就把參數組擴大,一直擴大到十億或者是幾十億的范圍。這樣就能從各種各樣的訓練數據里找到更多的相關(guān)性。
之前Transformer 架構沒(méi)表現出厲害的特質(zhì),本質(zhì)上只是做一個(gè)統計相關(guān)。當它只有 1. 17 億參數的時(shí)候,也就是GPT1.0,大家也沒(méi)有覺(jué)得多了不起。到 GPT2. 0 的時(shí)候,大概 15?億的參數,大家也覺(jué)得好像也沒(méi)有什么特別大的突破。GPT3.0 到 3. 5,大家就發(fā)現發(fā)生了本質(zhì)的變化。當它的容量擴到上千億參數的時(shí)候,可以想象關(guān)聯(lián)了多少知識在里面,這個(gè)時(shí)候它的準確率就有一個(gè)飛躍。所以直到GPT3.0 和 3. 5 問(wèn)世才被產(chǎn)業(yè)界真正開(kāi)始重視起來(lái)。
3.5 跟 3. 0 的根本區別在于改變了人機交互的界面,這是非常大的一個(gè)突破。InstructGPT能夠更好的將語(yǔ)言模型和人類(lèi)的意圖、偏好進(jìn)行匹配,并且在反饋的機制上進(jìn)行微調。而 4. 0的本質(zhì)就是多模態(tài)了。
見(jiàn)智研究:多模態(tài)是如何實(shí)現的?
丁奇:無(wú)論中文還是英文,常用詞也就上萬(wàn)個(gè)詞,完全可以用矩陣做一個(gè)編碼。圖像其實(shí)是由像素點(diǎn)形成,每一個(gè)像素點(diǎn)是由三種顏色涂在一塊,是三個(gè)數字的小矩陣,把若干個(gè)矩陣連在一起,就會(huì )形成一個(gè)大矩陣。圖像本質(zhì)上就是這樣的。
每一個(gè)語(yǔ)音就是一個(gè)正弦波,對它抽樣,它也變成一組數字視頻,其實(shí)就是一張圖像把它疊起來(lái),所以本質(zhì)上所有的文字,語(yǔ)音,圖像,視頻都可以抽象成一組向量。GPT本質(zhì)上就是一個(gè)向量的輸入,通過(guò)它的相關(guān)性輸出另一組向量,向量轉換成圖像、語(yǔ)音或者視頻,本質(zhì)上是一樣的,不同的是所消耗的算力資源。所以為什么能實(shí)現多模態(tài)?因為本質(zhì)上都變成了一組矩陣,所有的東西都可以抽象成一組矩陣,這是能變成多模態(tài)的底層原因。
其實(shí)我們做Transformer 也好,做這GPT也好,根本目的是想使用一個(gè)通用人工智能( AGI)做到在不同的情境下都能用。過(guò)去都是專(zhuān)用人工智能,比如專(zhuān)門(mén)做人臉識別的,專(zhuān)門(mén)做車(chē)牌識別的,或者專(zhuān)門(mén)做工業(yè)檢測的,都是在某些專(zhuān)業(yè)領(lǐng)域的。人機交互一定是多模態(tài)的,這也是為什么 4. 0能夠讓業(yè)界感到歡心鼓舞,這是意味著(zhù)我們離 AGI 更近了一步。
見(jiàn)智研究:GPT4應用具有怎樣的想象力?
丁奇:搜索一定是落地的第一個(gè)場(chǎng)景,比如New Bing最先接入;其次就是辦公軟件,比如office365;電子郵件、視頻會(huì )議也是生成內容類(lèi)的場(chǎng)景。此外,像服務(wù)機器人、智能客服也是非常好的應用領(lǐng)域。
現在其實(shí)有兩個(gè)革命,一個(gè)是能源革命,基于鋰電池,從過(guò)去的化石能源到我們的現在的鋰電能源。另一個(gè)革命就是以ChatGPT為代表的 AGI通用人工智能,未來(lái)在有了更靈敏的機械反饋后,機器人就是最大的一個(gè)應用場(chǎng)景。
數字人一定會(huì )比機器人更先應用。因為機器人受掣肘的地方比較多,包括續航、關(guān)節自由度等等,落地的困難要大很多。如果是數字世界里面的一個(gè)數字人,它的到來(lái)可能就會(huì )快很多,比如主持人、直播帶貨、數字明星等等。
此外,對游戲行業(yè)的影響也很大,特別是能夠直接大幅降低游戲的開(kāi)發(fā)成本。用AI畫(huà)圖能夠極大提高游戲創(chuàng )意師的工作效率。
未來(lái)AI機器能夠替代很多簡(jiǎn)單的工作,所以人的創(chuàng )意,人的思想就變得特別重要。所以我們覺(jué)得對于內容創(chuàng )意者會(huì )帶來(lái)特別大的需求提升。
見(jiàn)智研究:AI 產(chǎn)業(yè)是硬件迭代的速度更快,還是應用側發(fā)展會(huì )更快?
丁奇:我覺(jué)得要分兩個(gè)階段,初期一定是應用會(huì )更快,現在海外有很多的企業(yè)都接入了API 接口。國內也有百度的文心一言,后面也會(huì )開(kāi)放API 接入很多的應用。
現在看起來(lái)國內和海外的發(fā)展路徑非常類(lèi)似,有一兩個(gè)企業(yè)做出一些通用的大模型,接入API后向上層的應用軟件進(jìn)行拓展,就可以極大提升效率。Office365 就是一個(gè)很典型的代表。
硬件的迭代要取決于幾個(gè)條件。云端的硬件就是以GPU 服務(wù)器為代表, 國內相比英偉達還是有一定差距的,不是短期之內能夠迅速追上的。而云端,我們相信以后在端側也會(huì )有一些智能硬件,這些端側硬件現在的計算能力、內存能力,肯定是難以支持千億參數的大模型。
而一些應用變得智能,也需要對大模型去做剪枝??赡軐捣秶M(jìn)行圈定,在特定領(lǐng)域有特定應用,從一個(gè)大模型變成一個(gè)專(zhuān)用領(lǐng)域的特定模型,使得一些邊緣側的智能硬件也可以用。
我們認為首先起來(lái)的是云端的軟件,以一種 SaaS 化的方式給大家提供。其次就是云端的硬件,因為云端的硬件要怎么去做,其實(shí)已經(jīng)有標桿在那里了,只是大家要踏踏實(shí)實(shí)地基于路徑去做。
后面才是端側怎么做,現在 open AI 也沒(méi)有答案,大家現在的精力也不在這上面,但我們相信未來(lái)的這些硬件一定會(huì )被智能化的,所以路徑肯定是先軟件后硬件,尤其是先云端,到后端,最后是邊端。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: