国产精品久久久久久久久久久久午衣片,无码AV大香线蕉伊人久久蜜臀,欧美日韩亚洲中文字幕三,欧美日韩精品成人网视频

賽道Hyper | 英偉達封神:潛在對手已現|焦點(diǎn)速遞

ChatGPT的出現,不但讓AI有了比較明確的商業(yè)化方向,也在快速改變服務(wù)器產(chǎn)業(yè)格局。

傳統基于x86架構的CPU芯片,在服務(wù)器領(lǐng)域的統治地位,已岌岌可危。

美國證券半導體分析師在最近發(fā)布的一份報告中提到,由于ChatGPT對云計算以及IDC的AI算力需求激增,很可能導致商業(yè)模式選擇將資源轉向AI加速器芯片,比如NVIDIA(英偉達)的GPU(圖形處理單元)和Broadcom/Marvel的AI定制IC(用于A(yíng)I推理)。


(資料圖)

因此,傳統x86架構的、主要由Intel/AMD提供的服務(wù)器CPU,到2025年,可能不再是服務(wù)器的主要芯片。

同時(shí),更重要的事情發(fā)生了:盡管英偉達的GPU產(chǎn)品如今在支撐ChatGPT的算力需求時(shí),風(fēng)頭無(wú)倆,但挑戰者(或稱(chēng)分羹者)卻已出現。

正所謂:螳螂捕蟬,黃雀在后。這只黃雀,是何方神圣?

英偉達:超越x86架構芯片

Vivek Arya,這位半導體分析師在報告中認為,基于傳統x86架構的服務(wù)器CPU芯片商,比如Intel或AMD,正在遇到NVIDIA這個(gè)AI領(lǐng)域領(lǐng)頭羊公司的強力挑戰。

GPU是英偉達的主要產(chǎn)品,其營(yíng)收占總收入的80%+。GPU通常作為插入PC主板的卡出現,也有些SoC芯片設計商,將GPU作為SoC芯片的一個(gè)模塊,整合在系統級芯片中成為一個(gè)整體(比如高通驍龍8Gen 2)。

英偉達的GPU芯片,主要作用是為AMD或英特爾等公司制造的中央處理器(CPU)增加計算能力。

Vivek Arya在報告中估計,2023年至2025年,AI加速器芯片的銷(xiāo)售額將超過(guò)400億美元(相比2022年復合年均增長(cháng)率達37%)。于此對應,x86 CPU復合年均增長(cháng)率僅3%,銷(xiāo)售規模也僅為260億美元。

在ChatGPT出現前,英偉達GPU主要在計算機圖形學(xué)領(lǐng)域稱(chēng)王。在PC游戲玩家群體中,英偉達是神一樣的存在。

英偉達在GPU領(lǐng)域的主導地位,并非始于今日。1999年,英偉達通過(guò)GeForce 256進(jìn)入圖形處理市場(chǎng)。20多年后的2022年,游戲業(yè)務(wù)帶給英偉達超過(guò)90億美元的營(yíng)收。

2022年12月,OpenAI發(fā)布ChatGPT。由于ChatGPT對算力的極度渴求,相當于給算力爆棚的英偉達安裝了一組營(yíng)收動(dòng)力引擎。算力構成了AI商業(yè)繁榮的基礎。Vivek Arya說(shuō),“使用英偉達的GPU,去增加更多的計算能力非常容易?,F在,計算能力相當于硅谷的貨幣?!?/p>

作為支撐ChatGPT背后大型語(yǔ)言模型(LLM)底層動(dòng)力引擎,英偉達由于在A(yíng)I方面的敏銳洞察力、早期投資和堅定不移的堅持投入,因而獲得了頂級回報。

3月20日-23日,在英偉達舉行的年度GTC開(kāi)發(fā)者大會(huì )上,AI成為主要與會(huì )者討論的主要焦點(diǎn)。英偉達首席執行官黃仁勛在被問(wèn)及“提前20年布局AI,到底是運氣還是有先見(jiàn)之明”時(shí),黃仁勛回答了這么一句:“我們只是相信總有一天會(huì )發(fā)生新的事情,其余的一切都需要一些偶然性”。

如今AI芯片組云市場(chǎng)主要分為三個(gè)部分:公共云由云服務(wù)提供商托管:AWS、微軟、谷歌、阿里巴巴、百度和騰訊等;其次是企業(yè)數據中心,性質(zhì)是私有云和混合云,即結合公共云和私有云(VMware、Rackspace、NetApp、HPE和DELL)的產(chǎn)品。

除了公共云、私有云和混合云,ABI Research首席分析師蘇連杰認為,還有電信云,即電信公司為其核心網(wǎng)絡(luò )、IT和邊緣計算工作負載部署的云基礎設施。

英偉達的GPU在云端訓練方面的主導地位無(wú)可撼動(dòng)。但與此同時(shí),從2020年起,ASIC(專(zhuān)用定制芯片)在A(yíng)I推理領(lǐng)域也出現強勁增長(cháng)。

蘇連杰說(shuō),一些云服務(wù)提供商(CSP)認為,推理工作量的規模并不小于訓練工作量。ASIC是AI加速器芯片中用于推理的部分,另一部分即用于訓練的GPU。

事實(shí)上,即使是在2022年12月OpenAI發(fā)布的ChatGPT 3.5版本中,也確實(shí)出現了ChatGPT能根據用戶(hù)“投喂”問(wèn)題素材的上下文,做出合乎人類(lèi)邏輯的精確推理。ChatGPT 4.0版本,推理能力更強。

挑戰者谷歌的TPU技術(shù)特征

如果看AI定制芯片具備的推理能力,實(shí)際上可以發(fā)現,英偉達并非缺乏潛在挑戰者。

從技術(shù)上看,谷歌的TPU(張量處理單元)能同時(shí)處理“云上”訓練和推理,而非英偉達GPU大部分被用于訓練,而ASIC又主要用于推理。因此,谷歌的TPU被視為?CPU?和?GPU?技術(shù)的有力挑戰者。

蘇連杰認為,谷歌在TPU方面的展示的AI技術(shù)能力,正為云服務(wù)提供商開(kāi)發(fā)屬于自己的AI加速器ASIC提供了方向和技術(shù)路徑。華為、AWS(亞馬遜)和百度已經(jīng)這樣做了。

就像英偉達很早就布局AI算力那樣,谷歌做TPU同樣很早。

2006年,谷歌考慮為神經(jīng)網(wǎng)絡(luò )構建專(zhuān)用集成電路(即ASIC),到2013年,谷歌意識到神經(jīng)網(wǎng)絡(luò )(NPU)快速增長(cháng)的計算需求,對ASIC的需求量很可能會(huì )翻番。2015年,谷歌將TPU部署到服務(wù)器中,并快速迭代。

谷歌TPU如今已迭代到V4.0版。據谷歌4月6日披露,得益于互連技術(shù)和領(lǐng)域特定加速器(DSA)方面的關(guān)鍵創(chuàng )新,谷歌云TPU v4在擴展ML(機器學(xué)習:Machine Learning)系統性能方面比其前代版本有了近10倍的飛躍。

TPU v4是谷歌于2021年推出的、專(zhuān)門(mén)用于執行機器學(xué)習(ML)的AI芯片,是谷歌第5代特殊領(lǐng)域加速器(DSA:Domain Specific Accelerator)及第3代用于ML模型的超級計算機平臺。

與英偉達的當紅辣子雞A100相比,TPU v4速度快1.2-1.7倍,功耗低1.3-1.9倍。

基于這款芯片,谷歌研發(fā)了一臺擁有4096顆TPU?V4的超級計算機。這也是第一個(gè)部署可配置OCS(光電路開(kāi)關(guān))的超級計算機平臺。

OCS可動(dòng)態(tài)配置互聯(lián)拓撲,以提升擴展性、可用性、利用率、模塊化、安全、性能及用電效率。和Infiniband相比,OCS及其底層光纖組件,系統成本不到5%;OCS和底層光學(xué)組件更便宜、功耗更低且速度更快,無(wú)需光到電到光的轉換或耗電的網(wǎng)絡(luò )分組交換機,從而節省了電力。TPU v4芯片用電率僅200w,二氧化碳排放比一般本地部署的數據中心減少20倍,是執行大型語(yǔ)言模型的理想平臺。

TPU v4超級計算機的每顆TPU v4包含SparseCores,這是一種更接近高帶寬內存的中間芯片或資料流處理器,許多AI運算都發(fā)生在該芯片中,可使深度學(xué)習模型嵌入(Embeddings)執行速度提升5-7倍,裸晶(die)面積僅5%。

借由Sparsecores,搭載TPU v4的系統可用于執行搜索、廣告、YouTube和Google Play的AI內容推薦。

更令英偉達感到有威脅的是,谷歌宣布,提供AI文本生成圖片服務(wù)的AI創(chuàng )業(yè)公司Midjourney已利用Google Cloud TPUv4來(lái)訓練其第4版模型。

就像英偉達的GPU在A(yíng)I大模型做集群訓練時(shí),注重生態(tài)體系構建一樣,谷歌也算法-芯片協(xié)同方面做巨額投入。

如今,半導體硬件的技術(shù)迭代已接近摩爾定律的極限,未來(lái)AI芯片性能要百尺竿頭更進(jìn)一步,就硬件層面的提升空間越來(lái)越小。算法和芯片的協(xié)同設計將取而代之,成為行業(yè)主流;搭建軟硬件生態(tài)體系和推動(dòng)行業(yè)共建,將在未來(lái)成為半導體技術(shù)和應用的主要方向。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: