大語(yǔ)言模型或推動(dòng)“換機潮”產(chǎn)業(yè)鏈公司望集體受益
(資料圖片)
■機會(huì )挖掘
■國信證券
大模型參數量級飛漲,相應訓練集需同比提升。李開(kāi)復定義AI2.0時(shí)代的特征是通過(guò)海量數據,無(wú)需標注自監督學(xué)習,訓練一個(gè)基礎大模型,并在各領(lǐng)域將其專(zhuān)業(yè)化。據相關(guān)論文,當模型的參數量大于某閾值,會(huì )展現出類(lèi)似推理、無(wú)監督學(xué)習等未曾出現的能力,這種現象被稱(chēng)為“涌現”,因此目前大語(yǔ)言模型參數均在十億量級以上。同時(shí),Deepmind研究表明,模型參數的上漲需要配合等比例上升的優(yōu)質(zhì)數據集來(lái)達到最佳訓練效果。因此,大模型參數在十億級以上發(fā)展并受限于優(yōu)質(zhì)數據集的增速是AI發(fā)展的必然趨勢。
大模型增長(cháng)挑戰芯片算力和內存,無(wú)法實(shí)現完整端側部署。大模型訓練和推理的三大瓶頸是算力、顯存和通信,根據我們的測算,算力方面GPT-3 訓練所需算力為121528TFLOPS,若30天內完成,需要1558顆A100。內存角度,GPT-3訓練至少需要3.2T內存,至少44張A100,推理任務(wù)則主要受顯存限制,需要4至8張A100,因此完整的模型無(wú)法在終端上離線(xiàn)運行。
優(yōu)化后大模型可在旗艦機型芯片上運行,AI落地有望推動(dòng)新一輪換機潮。AI部署本地化具有必要性,優(yōu)勢包括更低的延遲、更小的帶寬、提高數據安全、保護數據隱私、高可靠性等。完整的大模型僅參數權重就占滿(mǎn)一張80G的GPU,但是通過(guò)量化、知識蒸餾、剪枝等優(yōu)化,大模型可以在手機本地實(shí)現推理。高通團隊使用驍龍8Gen2部署StableDiffusion,實(shí)現本地運營(yíng)15秒出圖,證明了大模型本地化運行的可能,也體現出目前手機芯片的局限性。根據IDC數據,1Q23全球手機銷(xiāo)量中主處理器頻率超過(guò)2.8GHz的占比36%,價(jià)格在1000美金以上的占比13%,即旗艦機型占比較低,隨著(zhù)AI大模型在邊緣端落地,有望推動(dòng)新一輪換機潮。
以大語(yǔ)言模型為核心,以語(yǔ)言為接口,控制多AI模型系統,構建“賈維斯”式智能管家。我們認為大語(yǔ)言模型不僅可以實(shí)現對話(huà)、創(chuàng )意,未來(lái)也有望作為眾多復雜AI模型的控制中心,同時(shí)也是接受用戶(hù)指令的交互窗口,實(shí)現《鋼鐵俠》電影中“賈維斯”式綜合智能管家。23年5月,Google推出PaLM2輕量版Gecko,其可在最新的旗艦機型上離線(xiàn)運行。同月,OpenAI首次推出ChatGPT移動(dòng)端應用,各家大廠(chǎng)正式進(jìn)入AI模型移動(dòng)端創(chuàng )新、競爭時(shí)期。智能音箱、全屋智能中控屏、手機、MR等均有望成為這一時(shí)代的交互入口。
產(chǎn)業(yè)鏈相關(guān)公司:半導體:晶晨股份、瑞芯微、全志科技、北京君正、兆易創(chuàng )新;消費電子:傳音控股、歌爾股份、福立旺、聞泰科技、創(chuàng )維數字。
(文章來(lái)源:金融投資報)
關(guān)鍵詞: