智通財(cái)經(jīng)APP獲悉,國(guó)泰君安發(fā)布研究報(bào)告稱,英偉達(dá)推出H200的GPU顯卡。與前一代H100相比,H200的性能直接提升了60%到90%。目前,H200預(yù)計(jì)于2024年第二季度出貨。對(duì)于AI上升趨勢(shì)的判斷,該行認(rèn)為有三重催化:1)算力是一切變革的基礎(chǔ)設(shè)施。此次H200的發(fā)布,將過去數(shù)據(jù)中心芯片兩年一更新的速率直接翻倍;2)更強(qiáng)勁,更低價(jià)的大模型GPT
4
Turbo發(fā)布降低進(jìn)入門檻,自定義GPT+GPT應(yīng)用商店預(yù)計(jì)將打造一個(gè)充滿活力的軟件與應(yīng)用生態(tài);3)性能無邊的B100與GPT5預(yù)計(jì)在2024年發(fā)布,重磅升級(jí)或釋放前所未有的生產(chǎn)力。
國(guó)泰君安觀點(diǎn)如下:
相較于H100,此次最大的更新在于H200搭載了更快、更大的HBM3e的存儲(chǔ)。
H200的容量接近翻倍,帶寬增加2.4倍,加速生成式AI和大語言模型的同時(shí),推進(jìn)HPC工作負(fù)載的科學(xué)計(jì)算。H200 在700億參數(shù)的Llama2大模型上的推理速度比H100快了一倍,而且在推理能耗上H200相比H100直接降低了一半。
H200的提前發(fā)布再次證明持續(xù)奔跑這種能力本身才是英偉達(dá)的護(hù)城河。
在黃氏定律時(shí)代,GPU將推動(dòng)AI性能實(shí)現(xiàn)逐年翻倍,GPU的進(jìn)化速度可能遠(yuǎn)超投資者的預(yù)期。當(dāng)H100橫空出世時(shí),這幾乎成為大模型時(shí)代最稀缺的資源。但是市場(chǎng)終究不會(huì)只讓英偉達(dá)獨(dú)自享受新時(shí)代的算力紅利。隨即,二號(hào)玩家AMD的MI300顯卡推出,芯粒堆疊技術(shù)使得晶體管的數(shù)量達(dá)到瘋狂的1460億個(gè)。同時(shí),這款顯卡芯片集成了Zen4架構(gòu)的24個(gè)CPU核心、大容量的Infinity Cache無限緩存,還有8192-bit位寬、128GB容量的HBM3高帶寬內(nèi)存。Intel、IBM等科技巨頭以及新晉企業(yè)正陸續(xù)推出新的AI芯片,試圖與英偉達(dá)AI芯片抗衡;谷歌、微軟、亞馬遜、阿里、百度等公司也紛紛布局自研芯片,以減少對(duì)外部供應(yīng)商的依賴。所以,在芯片行業(yè)內(nèi),一款產(chǎn)品很難形成一個(gè)超過兩年的護(hù)城河。此次更大內(nèi)存,更大帶寬的H200發(fā)布再次證明英偉達(dá)持續(xù)奔跑,持續(xù)領(lǐng)先的能力或是英偉達(dá)真正的護(hù)城河。
看好AI進(jìn)入快速發(fā)展的成長(zhǎng)期,能見度持續(xù)至2024年。
對(duì)于AI上升趨勢(shì)的判斷,該行認(rèn)為有三重催化:1. 算力是一切變革的基礎(chǔ)設(shè)施。此次H200的發(fā)布,將過去數(shù)據(jù)中心芯片兩年一更新的速率直接翻倍。2. 更強(qiáng)勁,更低價(jià)的大模型GPT 4 Turbo發(fā)布降低進(jìn)入門檻,自定義GPT+GPT應(yīng)用商店預(yù)計(jì)將打造一個(gè)充滿活力的軟件與應(yīng)用生態(tài)。3. 性能無邊的B100與GPT5預(yù)計(jì)在2024年發(fā)布,重磅升級(jí)或釋放前所未有的生產(chǎn)力。
風(fēng)險(xiǎn)提示:AI商業(yè)化不及預(yù)期;地緣政治風(fēng)險(xiǎn);毛利率、凈利率不及預(yù)期。