行業(yè)資訊
無論是ChatGPT-4還是文心一言,本質(zhì)都是算法大模型帶起來的AI軍備競(jìng)賽,而除了這些大公司,大模型的出現(xiàn)還有望帶動(dòng)AI服務(wù)器需求爆發(fā)。CPU、內(nèi)部存儲(chǔ)和外部存儲(chǔ)作為服務(wù)器的核心部件,受益于大模型的井噴發(fā)展,板塊也會(huì)得到進(jìn)一步關(guān)注。本文就重點(diǎn)介紹AI大模型服務(wù)器。
所謂“大模型”,通常是在無標(biāo)注的大數(shù)據(jù)集上,采用自監(jiān)督學(xué)習(xí)的方法進(jìn)行訓(xùn)練。之后在其他場(chǎng)景的應(yīng)用中,開發(fā)者只需要對(duì)模型進(jìn)行微調(diào),或采用少量數(shù)據(jù)進(jìn)行二次訓(xùn)練,就可以滿足新應(yīng)用場(chǎng)景的需要。
ChatGPT-4服務(wù)器試用:http://www.bxgb88.com/cloud/usa.html
一、大模型的基礎(chǔ):算力場(chǎng)景向AI升級(jí),CPU+GPU是核心
服務(wù)器隨著場(chǎng)景需求經(jīng)歷通用服務(wù)器-云服務(wù)器-邊緣服務(wù)器-AI服務(wù)器四種模式,AI服務(wù)器采用GPU增強(qiáng)其并行計(jì)算能力;
AI大模型服務(wù)器按應(yīng)用場(chǎng)景可分為訓(xùn)練和推理,訓(xùn)練對(duì)芯片算力的要求更高,根據(jù)IDC,隨著大模型的應(yīng)用,2025年推理算力需求占比有望提升至60.8%;
AI大模型服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%);
AI大模型服務(wù)器的成本主要來自CPU、GPU等芯片,占比25%-70%不等,對(duì)于訓(xùn)練型服務(wù)器其80%以上的成本來源于CPU和GPU。
大模型是人工智能發(fā)展的必然趨勢(shì),大模型是輔助式人工智能向通用性人工智能轉(zhuǎn)變的堅(jiān)實(shí)底座,能夠極大提升生產(chǎn)力。通過學(xué)習(xí)一種特征和規(guī)則,搭建出高效率的通用模型,在這個(gè)基礎(chǔ)上進(jìn)行微調(diào),就可以應(yīng)用在不同場(chǎng)景。
在過去,大家都是各自研發(fā)自家模型,單一AI應(yīng)用場(chǎng)景需要多個(gè)模型支撐,每個(gè)模型都需要算法開發(fā)、數(shù)據(jù)處理、模型訓(xùn)練等過程,耗費(fèi)了大量資源。在AI時(shí)代,這樣的低效發(fā)展顯然不是谷歌、微軟、百度等公司希望的。
現(xiàn)在,大模型實(shí)現(xiàn)了標(biāo)準(zhǔn)化AI研發(fā)范式,能夠以一種簡(jiǎn)單的方式進(jìn)行規(guī)模化生產(chǎn),既能降低自家的AI開發(fā)門檻,做到“低成本”和“高效率”,還能夠?qū)⑦@一模型應(yīng)用在有定制化需求的企業(yè)身上。
所以,基于這個(gè)基礎(chǔ),大模型的開發(fā)成為互聯(lián)網(wǎng)發(fā)展的必然結(jié)果。而這個(gè)結(jié)果的底層技術(shù)支撐,就是算力。算力是打造大模型生態(tài)的必備基礎(chǔ),其中,服務(wù)器作為算力的載體,無疑是大模型發(fā)展的重要支撐。而這些都會(huì)在文心一言、在ChatGPT中發(fā)揮舉足輕重的作用,幫助這些大模型實(shí)現(xiàn)從輸入到輸出。
二、ChatGPT等大模型訓(xùn)練和推理需求激增驅(qū)動(dòng)AI服務(wù)器市場(chǎng)高速增長
據(jù)預(yù)測(cè),ChatGPT-4參數(shù)量最高達(dá)15000億個(gè),由于參數(shù)量與算力需求間存在正比關(guān)系,所以可推算GPT-4算力需求最高達(dá)到31271PFlop/s-day。隨著國內(nèi)外廠商加速布局千億級(jí)參數(shù)量的大模型,訓(xùn)練需求有望進(jìn)一步增長,疊加大模型落地應(yīng)用帶動(dòng)推理需求高速增長,共同驅(qū)動(dòng)算力革命并助推AI服務(wù)器市場(chǎng)及出貨量高速增長。
服務(wù)器比普通計(jì)算機(jī)運(yùn)行更快、負(fù)載更高、價(jià)格更貴,但內(nèi)部結(jié)構(gòu)與普通的計(jì)算機(jī)相差不大。服務(wù)器的架構(gòu),當(dāng)然也會(huì)隨負(fù)載量擴(kuò)張而不斷優(yōu)化。現(xiàn)在的服務(wù)器架構(gòu),已經(jīng)從傳統(tǒng)單一模式過渡到集群模式,再發(fā)展到有著廣闊應(yīng)用前景的分布式架構(gòu)。
在分布式架構(gòu)中,整個(gè)系統(tǒng)按照不同功能,拆分為多個(gè)單一功能的子模塊,每個(gè)模塊被放到不同服務(wù)器中相互協(xié)作,共同組成服務(wù)器網(wǎng)絡(luò),服務(wù)器也是區(qū)塊鏈應(yīng)用的底層技術(shù)支撐。
伴隨應(yīng)用需求不斷擴(kuò)張,不同架構(gòu)服務(wù)器百花齊放。人工智能應(yīng)用場(chǎng)景下的加速計(jì)算服務(wù)器,因?yàn)閾碛袕?qiáng)大的計(jì)算能力,因而成為服務(wù)器中的核心驅(qū)動(dòng)力。從最近的文心一言到ChatGPT-4,AI場(chǎng)景下的加速計(jì)算服務(wù)器成為各家拼算力、拼模型的基礎(chǔ),AI服務(wù)器的價(jià)值正逐漸凸顯。
AI服務(wù)器不同于通用服務(wù)器,作為算力載體,其更專精于海量數(shù)據(jù)處理和運(yùn)算方面,可以為人工智能、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、大模型等場(chǎng)景提供廣闊的動(dòng)力源泉,并廣泛應(yīng)用于醫(yī)學(xué)、材料、金融、科技等千行百業(yè)。在未來,AI服務(wù)器必將為數(shù)字經(jīng)濟(jì)時(shí)代提供發(fā)展的強(qiáng)大動(dòng)力。
如果將當(dāng)前的 ChatGPT 部署到谷歌進(jìn)行的每次搜索中,需要 512820.51 臺(tái) A100 HGX 服務(wù)器和總共 4102568 個(gè) A100 GPU,這些服務(wù)器和網(wǎng)絡(luò)的總成本僅資本支出就超過 1000 億美元。在生成式AI大模型廣闊的應(yīng)用背景下,高算力服務(wù)器需求有望在中長線保持旺盛,支撐其底層的交換機(jī)、服務(wù)器等數(shù)據(jù)中心算力基礎(chǔ)設(shè)施亦將迎來新一輪高速增長。