智通財經(jīng)APP獲悉,信達證券發(fā)布研究報告稱,ChatGPT的快速滲透側(cè)面反映出大模型在通用任務(wù)上所展現(xiàn)的強大能力,也為人工智能產(chǎn)業(yè)未來的投資指引了方向。在AIGC驅(qū)動新一輪產(chǎn)業(yè)革命的趨勢下,AI算力產(chǎn)業(yè)鏈上下游均有投資機會。建議關(guān)注:海光信息(688041.SH)、寒武紀(jì)-U(688256.SH)、龍芯中科(688047.SH)、瀾起科技(688008.SH)、工業(yè)富聯(lián)(601138.SH)、紫光國微(002049.SZ)、中芯國際(688981.SH)、華虹半導(dǎo)體(01347)、華大九天(301269.SZ)、概倫電子(688206.SH)等。
▍信達證券主要觀點如下:
Transformer模型是參數(shù)量可以無限增長的通用模型,可以處理長序列的輸入、輸出。
Transformer模型是一種基于自注意力機制的深度學(xué)習(xí)模型,相較于傳統(tǒng)AI模型如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),它在處理序列數(shù)據(jù)時具有更高的并行性和可擴展性。其中,自注意力機制使得模型能夠捕捉序列中長距離依賴關(guān)系,同時避免了RNN中的梯度消失或爆炸問題。
Transformer模型的參數(shù)量之所以會隨著數(shù)據(jù)量和任務(wù)復(fù)雜度無限增長,是因為它可以通過堆疊更多的層或增加隱藏層寬度來提高模型性能,從而適應(yīng)更復(fù)雜的數(shù)據(jù)和任務(wù);在傳統(tǒng)CNN/RNN模型中,增加網(wǎng)絡(luò)參數(shù)量會提高模型的擬合能力,但過多的參數(shù)容易導(dǎo)致過擬合現(xiàn)象。
因此,長期來看大模型領(lǐng)域或許會出現(xiàn)沒有上限的“軍備競賽”。
訓(xùn)練:根據(jù)英偉達測算,在4096顆A100 GPU互聯(lián)的情況下,訓(xùn)練10000億參數(shù)的模型約需要3-4周時間,而在4096顆H100 GPU互聯(lián)的情況下,時間約需要1周左右。
考慮到1周是研發(fā)階段可承受的周期,因此該行認為,4000顆左右H100將是一個大型云計算企業(yè)每年支持30-50個5000億參數(shù)模型項目訓(xùn)練所需要的芯片數(shù)量??紤]到目前大模型參數(shù)量已經(jīng)步入萬億級別,芯片需求量可能會繼續(xù)上升。
若以英偉達HGX H100-8計算集群為單位(1024 Nvidia H100 GPUs),總共需要4-8個計算集群,考慮到售價為4900萬美金/集群,則單個支持GPT訓(xùn)練的云計算中心至少投入1.96-3.92億美金用于服務(wù)器的購買 。
推理:相比訓(xùn)練,模型的部署是更大的市場。
該行認為,應(yīng)用對于服務(wù)器的最大承載能力要求在于過峰,即滿足PCU時刻的訪問需求。
根據(jù)Statista,Steam 2021年月活用戶約為1.32億人左右,而Steam公布服務(wù)器最高訪問人數(shù)截至2021年12月31日為2738萬人,最高817萬人同時在線進行游戲。因此合理推斷一款被高強度訪問的應(yīng)用,最高在線人數(shù)約為月活用戶的6.19%-20.74%。假設(shè)在國內(nèi)8億用戶體量下,最高并發(fā)訪問人數(shù)可高達4952萬人-16592萬人。
根據(jù)10 DGX H100服務(wù)器一秒內(nèi)可支持300用戶的并發(fā)訪問,若響應(yīng)時長延緩至5秒及以上,最高可支持1000人以上的并發(fā)訪問。據(jù)此測算,國內(nèi)由AI帶動的服務(wù)器需求量約為5萬臺-16.6萬臺,芯片為50-166萬顆。假設(shè)全球活躍用戶體量為國內(nèi)用戶體量的3倍,則全球服務(wù)器需求量為15-50萬臺,芯片需求量為150-500萬顆。
風(fēng)險提示:
技術(shù)迭代不及預(yù)期;制裁風(fēng)險;本文對服務(wù)器、芯片需求量等測算是基于一定前提假設(shè),存在假設(shè)條件不成立、市場發(fā)展不及預(yù)期等因素導(dǎo)致測算結(jié)果偏差。