華泰證券:從ChatGPT看算力產(chǎn)業(yè)機遇

華泰證券發(fā)布研究報告稱,關注AI景氣周期下,算力基礎設施產(chǎn)業(yè)機遇。

智通財經(jīng)APP獲悉,華泰證券發(fā)布研究報告稱,關注AI景氣周期下,算力基礎設施產(chǎn)業(yè)機遇。分析師認為,國產(chǎn)廠商未來或將訓練出自己的GPT模型,帶動算力設施產(chǎn)業(yè)迎來景氣周期。相關公司包括:1、算力芯片廠商;2、服務器廠商;3、IDC服務商。

大模型訓練熱潮下,算力基礎設施有望迎來產(chǎn)業(yè)機遇

ChatGPT發(fā)布之后,引發(fā)了全球范圍的關注和討論,國內(nèi)各大廠商相繼宣布GPT模型開發(fā)計劃。分析師認為,以GPT模型為代表的AI大模型訓練,需要消耗大量算力資源,隨著國產(chǎn)大模型開發(fā)陸續(xù)進入預訓練階段,算力需求持續(xù)釋放或將帶動算力基礎設施產(chǎn)業(yè)迎來增長新周期。產(chǎn)業(yè)鏈相關公司包括:1、算力芯片廠商;2、服務器廠商;3、IDC服務商。

ChatGPT:大模型訓練帶來高算力需求

訓練ChatGPT需要使用大量算力資源。據(jù)微軟官網(wǎng),微軟Azure為OpenAI開發(fā)的超級計算機是一個單一系統(tǒng),具有超過28.5萬個CPU核心、1萬個GPU和400 GB/s的GPU服務器網(wǎng)絡傳輸帶寬。據(jù)英偉達,使用單個Tesla架構的V100 GPU對1746億參數(shù)的GPT-3模型進行一次訓練,需要用288年時間。此外,算力資源的大量消耗,必然伴隨著算力成本的上升,據(jù)Lambda,使用訓練一次1746億參數(shù)的GPT-3模型所需花費的算力成本超過460萬美元。分析師認為,未來擁有更豐富算力資源的模型開發(fā)者,或將能夠訓練出更優(yōu)秀的AI模型,算力霸權時代或將開啟。

需求場景:預訓練+日常運營+Finetune

具體來看,AI大模型對于算力資源的需求主要體現(xiàn)在以下三類場景:1)模型預訓練:ChatGPT采用預訓練語言模型,核心思想是在利用標注數(shù)據(jù)之前,先利用無標注的數(shù)據(jù)訓練模型。據(jù)分析師測算,訓練一次ChatGPT模型(13億參數(shù))需要的算力約27.5PFlop/s-day;2)日常運營:用戶交互帶來的數(shù)據(jù)處理需求同樣也是一筆不小的算力開支,分析師測算得ChatGPT單月運營需要算力約4874.4PFlop/s-day,對應成本約616萬美元;3)Finetune:ChatGPT模型需要不斷進行Finetune模型調優(yōu),對模型進行大規(guī)?;蛐∫?guī)模的迭代訓練,產(chǎn)生相應算力需求。

算力芯片+服務器+數(shù)據(jù)中心,核心環(huán)節(jié)有望率先受益

分析師認為,隨著國內(nèi)廠商相繼布局ChatGPT類似模型,算力需求或將持續(xù)釋放,供給端核心環(huán)節(jié)或將率先受益:1)算力芯片:GPU采用了數(shù)量眾多的計算單元和超長的流水線,架構更適合進行大吞吐量的AI并行計算;2)服務器:ChatGPT模型訓練涉及大量向量及張量運算,AI服務器具備運算效率優(yōu)勢,大模型訓練有望帶動AI服務器采購需求放量;3)數(shù)據(jù)中心:IDC算力服務是承接AI計算需求的直接形式,隨著百度、京東等互聯(lián)網(wǎng)廠商相繼布局ChatGPT類似產(chǎn)品,核心城市IDC算力缺口或將加大。

風險提示:下游需求不及預期。

智通聲明:本內(nèi)容為作者獨立觀點,不代表智通財經(jīng)立場。未經(jīng)允許不得轉載,文中內(nèi)容僅供參考,不作為實際操作建議,交易風險自擔。更多最新最全港美股資訊,請點擊下載智通財經(jīng)App
分享
微信
分享
QQ
分享
微博
收藏