智通財(cái)經(jīng)APP獲悉,招商證券發(fā)布研究報(bào)告稱,隨著AI大模型的發(fā)展和應(yīng)用推廣,算力需求將與日俱增,數(shù)據(jù)中心或?qū)⒊蔀槲磥砗诵母偁幜ΡU现?,服?wù)器作為數(shù)據(jù)中心的核心設(shè)備未來亦有望受益于算力需求的增長浪潮??紤]到未來AI服務(wù)器整體出貨量占比有望逐步提升,建議關(guān)注服務(wù)器硬件層面所涉及到的GPU、CPU、存儲等零部件,同時(shí)考慮到GPU作為未來AI服務(wù)器的算力核心以及是價(jià)值量占比最大的部分,建議關(guān)注國際GPU龍頭英偉達(dá)及其產(chǎn)業(yè)鏈標(biāo)的。
個(gè)股方面:關(guān)注寒武紀(jì)(688256.SH)、海光信息(688041.SH)和景嘉微(300474.SZ)等國內(nèi)布局GPU等核心算力芯片產(chǎn)品的廠商。
招商證券主要觀點(diǎn)如下:
AI大模型通常伴隨著計(jì)算量和模型數(shù)量同步增長,全球算力需求數(shù)倍增長。
AI模型的研究和應(yīng)用主要分為訓(xùn)練和推理過程,從GPT-1的1.17億參數(shù)量到GPT-3的1750億參數(shù)量深刻展示了大模型發(fā)展過程中算力需求的快速增長。我們認(rèn)為出于商業(yè)競爭和國家地區(qū)數(shù)據(jù)安全等角度考慮,未來全球各大互聯(lián)網(wǎng)公司和各個(gè)國家地區(qū)都將逐步發(fā)展自己的AI大模型。GPT-3訓(xùn)練階段1天內(nèi)完成至少需要3萬顆以上的A100芯片,未來5年AI大模型訓(xùn)練端和推理端GPU芯片市場規(guī)模望超1000萬元,AI服務(wù)器市場規(guī)模超2000億元。
數(shù)據(jù)中心是未來智算基礎(chǔ)保障,AI服務(wù)器作為核心設(shè)施成長空間可觀。
服務(wù)器占數(shù)據(jù)中心購置成本的70%,未來AI算力需求增多的背景下會對數(shù)據(jù)中心產(chǎn)生更多需求。當(dāng)前全球服務(wù)器的年度出貨量級約在1300萬臺左右,預(yù)計(jì)2022年AI服務(wù)器占1%,同時(shí)考慮到采用GPU服務(wù)器的數(shù)據(jù)中心購置成本將顯著低于純CPU方案的數(shù)據(jù)中心,預(yù)計(jì)未來AI服務(wù)器出貨量增速將高于行業(yè)整體,占比亦將逐步提升。從通用服務(wù)器到AI服務(wù)器,一個(gè)最顯著的變化就是GPU取代了CPU成為整機(jī)最核心的運(yùn)算單元以及價(jià)值量占比最大的部分,傳統(tǒng)服務(wù)器通常至多配備4個(gè)CPU+相應(yīng)內(nèi)存和硬盤,在AI服務(wù)器中,通常是2顆CPU+8顆GPU,部分高配4U服務(wù)器中甚至可以搭配16顆GPU,預(yù)計(jì)AI服務(wù)器中GPU+CPU+存儲的價(jià)值量占比有望達(dá)到80%以上的水平。
AI研究與軟硬件生態(tài)息息相關(guān),英偉達(dá)多層次全面布局提供綜合解決方案。
英偉達(dá)圍繞數(shù)據(jù)中心業(yè)務(wù)提供GPU/CPU/DPU/DGX系統(tǒng)硬件支持,并提供多種加速庫與云服務(wù),最新一代大模型芯片為H100GPU,并提供擅長單線程和內(nèi)存處理的GraceCPU與釋放CPU資源的BlueFieldDPU加速計(jì)算單元,DGX系統(tǒng)可用于構(gòu)建AI超級計(jì)算機(jī)。軟件方面推出多種加速庫與DGXCloud、AIFoundations,可幫企業(yè)與科學(xué)研究實(shí)現(xiàn)加速計(jì)算,為全球云服務(wù)商提供AI技術(shù)及定制LLM和生成式AI,CUDA架構(gòu)深度適配PyTorch等多種深度學(xué)習(xí)框架,協(xié)助英偉達(dá)打造全球用戶對于英偉達(dá)產(chǎn)品體系的深度粘性。
風(fēng)險(xiǎn)提示:下游需求不及預(yù)期的風(fēng)險(xiǎn)、行業(yè)競爭加劇的風(fēng)險(xiǎn)、宏觀政策和國際形勢變化的風(fēng)險(xiǎn)、技術(shù)路徑變化的風(fēng)險(xiǎn)、供應(yīng)鏈?zhǔn)芟薜娘L(fēng)險(xiǎn)。