世界滾動(dòng):面向大模型訓練,騰訊發(fā)布超強算力集群,性能提升三倍!
就在剛剛,騰訊發(fā)布了號稱(chēng)國內性能最強的大模型計算集群。
據騰訊微信公眾號4月14日消息,騰訊云正式發(fā)布面向大模型訓練的新一代HCC(High-Performance Computing Cluster)高性能計算集群。
該集群采用騰訊云星星海自研服務(wù)器,搭載英偉達最新代次H800 GPU,服務(wù)器之間采用業(yè)界最高的3.2T超高互聯(lián)帶寬,為大模型訓練、自動(dòng)駕駛、科學(xué)計算等提供高性能、高帶寬和低延遲的集群算力。
(資料圖片僅供參考)
據騰訊介紹,實(shí)測顯示,新一代集群整體性能比過(guò)去提升了3倍,是國內性能最強的大模型計算集群。
早在去年10月,騰訊訓練框架AngelPTM,完成了首個(gè)萬(wàn)億參數大模型訓練——混元NLP大模型訓練。在同等數據集下,將訓練時(shí)間由 50 天縮短到 11 天。如果基于新一代集群,訓練時(shí)間將進(jìn)一步縮短至 4 天。
針對大模型場(chǎng)景,星星海自研服務(wù)器采用 6U 超高密度設計,相較行業(yè)可支持的上架密度提高 30%;利用并行計算理念,通過(guò) CPU 和 GPU 節點(diǎn)的一體化設計,將單點(diǎn)算力性能提升至更高。
除此以外,H800 GPU也是新集群的一大看點(diǎn)。公開(kāi)資料顯示,H800為英偉達旗下最先進(jìn)的芯片之一,對人工智能研發(fā)極為重要,其算力超過(guò)旗艦芯片A100三倍,這也是國內首次發(fā)布搭載H800的大模型產(chǎn)品。
網(wǎng)絡(luò )層面,騰訊發(fā)布自研的星脈網(wǎng)絡(luò )能提供3.2T通信帶寬,為業(yè)內最高數據。
騰訊表示,搭載同樣的GPU卡,3.2T星脈網(wǎng)絡(luò )相較前代網(wǎng)絡(luò ),能讓集群整體算力提升20%,使得超大算力集群仍然能保持通信開(kāi)銷(xiāo)比和吞吐性能。并提供單集群高達十萬(wàn)卡級別的組網(wǎng)規模,支持更大規模的大模型訓練及推理。
存儲層面,幾千臺計算節點(diǎn)同時(shí)讀取一批數據集,需要盡可能縮短加載時(shí)長(cháng)。騰訊云自研的文件存儲、對象存儲架構,具備TB級吞吐能力和千萬(wàn)級IOPS,滿(mǎn)足大模型訓練的大數據量存儲要求。
新一代集群還集成了騰訊云自研的?TACO 訓練加速引擎,對網(wǎng)絡(luò )協(xié)議、通信策略、AI 框架、模型編譯進(jìn)行大量系統級優(yōu)化,大幅節約訓練調優(yōu)和算力成本。
另外,騰訊自研芯片已經(jīng)量產(chǎn),包括用于A(yíng)I推理的紫霄芯片。它采用自研存算架構和自研加速模塊,可以提供高達3倍的計算加速性能和超過(guò)45%的整體成本節省。
在上月召開(kāi)的電話(huà)會(huì )議上,騰訊方面表示,未來(lái)將投入大量資源并建立自己的基礎模型,并將其整合進(jìn)公司的所有業(yè)務(wù)中。不過(guò)騰訊表示,將做對的事,不會(huì )倉促行事。
騰訊還說(shuō),AIGC可以用來(lái)提升騰訊旗下旗艦產(chǎn)品的用戶(hù)體驗。未來(lái)可能每一個(gè)用戶(hù)都會(huì )有人工智能助理,如果效果好,有可能將生成式AI納入微信和QQ。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: