英特爾(INTC.US)、英偉達(dá)(NVDA.US)和AMD(AMD.US)正面交鋒,AI時代誰主沉浮?

作者: 美股研究社 2019-08-23 20:44:12
Hot Chips研討會本周開始。人工智能是英特爾(INTC.US)、英偉達(dá)(NVDA.US)和AMD(AMD.US)的熱門話題。

本文選自”美股研究社“。

Hot Chips研討會本周開始。人工智能是英特爾(INTC.US)、英偉達(dá)(NVDA.US)和AMD(AMD.US)的熱門話題。8月21日,這三家芯片公司在討論各自的人工智能策略時,股價分別上漲了1.18%、2%和3.2%。

長期投資者必須了解這三家公司的人工智能機(jī)遇。這三三個公司都有不同的方法來使用AI,所以它們的AI TAM(總可尋址值)也不同。至于哪家公司的戰(zhàn)略最適合投資者,還有待觀察。

01 英特爾、AMD和英偉達(dá)的人工智能戰(zhàn)略

英偉達(dá)估計,到2023年,其數(shù)據(jù)中心人工智能TAM將達(dá)到500億美元。這包括高性能計算(HPC)、深度學(xué)習(xí)訓(xùn)練(DLT)和深度學(xué)習(xí)推理(DLI)。

英特爾預(yù)計其DLT和DLI TAM將在2020年達(dá)到460億美元。AMD還沒有發(fā)布任何用于深度學(xué)習(xí)的TAM,因為它更專注于從英特爾和英偉達(dá)那里獲得市場份額。因此,AMD沒有一個以人工智能為核心的芯片。然而,AMD首席執(zhí)行官Lisa Su表示,公司正在努力成為人工智能領(lǐng)域更重要的參與者。

02 Lisa Su: CPU計算有其局限性

任何關(guān)于計算性能的討論都是從摩爾定律開始的,摩爾定律正在變慢。摩爾定律指出,隨著芯片尺寸的縮小和晶體管密度的增加,計算性能將每兩年翻一番。

據(jù)AnandTech報道,Lisa Su在Hot Chips 31的主題演講中解釋說,公司一直在通過利用各種元素來提高CPU(中央處理器)的性能。這些元素包括工藝技術(shù)、模具尺寸、TDP(熱設(shè)計電源)、電源管理、微體系結(jié)構(gòu)和編譯器。

過程技術(shù)是最大的貢獻(xiàn)者,因為它將性能提高了40%。增加模具尺寸也可以提高兩位數(shù)的性能,但這并不劃算。

AMD使用微架構(gòu)將EPYC Rome服務(wù)器的CPU IPC(每周期指令)在單線程和多線程工作負(fù)載下分別提高15%和23%。這一IPC改善高于行業(yè)平均IPC改善約5%-8%。但是,所有這些方法在2.5年內(nèi)性能都提高了一倍。

03 Su:人工智能需要加速計算

Su表示,一方面,摩爾定律正在放緩。另一方面,世界上最快的超級計算機(jī)的性能每1.2年就會翻一番。這意味著過去十年的解決方案不會奏效。

該行業(yè)目前的需求是優(yōu)化系統(tǒng)的某些部分,使它們成為人工智能工作負(fù)載的理想選擇。她解釋說,每瓦的性能在asic(特定于應(yīng)用的集成電路)和fpga(現(xiàn)場可編程門陣列)中最高,在cpu中最低。通用gpu(圖形處理單元)每瓦的性能介于cpu和fpga之間。

Su表示,每個人工智能工作負(fù)載都有不同的計算需求?;ミB技術(shù)是解決方案,因為它將各個部分互連到一個系統(tǒng)。她用以下例子說明這一點(diǎn):

納米分子動力學(xué)的工作負(fù)載依賴于GPU

NLP(自然語言處理)工作負(fù)載在CPU、GPU、內(nèi)存帶寬和連接性之間保持平衡

業(yè)界使用傳統(tǒng)方法提高了CPU和GPU的性能。Su強(qiáng)調(diào),業(yè)界應(yīng)該通過關(guān)注互連、I/O(輸入/輸出)、內(nèi)存帶寬、軟件效率和軟硬件協(xié)同優(yōu)化來提高性能。

Su:AMD將在人工智能領(lǐng)域扮演更重要的角色

AMD首席執(zhí)行官表示,公司已經(jīng)采取了CPU/GPU/互連策略,以利用人工智能和高性能計算的機(jī)會。她說AMD將在前沿超級計算機(jī)上使用所有的技術(shù)。該公司計劃充分優(yōu)化其EYPC CPU和Radeon Instinct GPU用于超級計算。它將進(jìn)一步提高系統(tǒng)的性能與無限織物和解鎖性能與它的ROCM (Radeon開放計算)軟件工具。

與英特爾和英偉達(dá)不同,AMD沒有專門的人工智能芯片或特定于應(yīng)用程序的加速器。盡管如此,Su指出,"我們絕對會看到AMD在人工智能領(lǐng)域成為一個大玩家。"AMD正在考慮是否要制造專用的人工智能芯片。這一決定將取決于人工智能的發(fā)展。

Su進(jìn)一步闡述了她的觀點(diǎn),她補(bǔ)充說,許多公司正在開發(fā)不同的人工智能加速器,如asic、fpga和張量處理單元。這些芯片將縮小到最可持續(xù)的芯片,然后AMD將決定是否建立廣泛使用的加速器。

與此同時,AMD將與第三方加速器制造商合作,通過其Infinity Fabric interconnect將芯片與自己的CPU/GPU連接起來。這種策略類似于它的光線跟蹤策略。英偉達(dá)去年推出了實(shí)時射線追蹤技術(shù),但AMD并沒有急于推出這項技術(shù)。相反,Su指出,AMD將在未來引入射線追蹤,當(dāng)生態(tài)系統(tǒng)到位,技術(shù)被廣泛采用。

考慮到AMD是一個較小的競爭對手與更大的玩家與充足的資源,上述戰(zhàn)略是有經(jīng)濟(jì)意義的。在一個已經(jīng)建立的市場中開發(fā)市場份額可以降低由于采用不當(dāng)而導(dǎo)致產(chǎn)品失敗的風(fēng)險,并保證最低回報。

04 AMD的人工智能策略不同于英特爾和英偉達(dá)

AMD在開發(fā)自己的人工智能芯片之前采取了觀望的態(tài)度。相反,它正在利用現(xiàn)有的技術(shù)來處理人工智能工作負(fù)載。

另一方面,英特爾正在內(nèi)部開發(fā)計算性能的每一個要素。開發(fā)了Xeon CPU、Optane存儲器、Altera FPGA和interconnect。它還在開發(fā)自己的Xe GPU。在Hot Chips 31上,英特爾發(fā)布了專為DLT和DLI設(shè)計的Nervana AI芯片。英特爾在內(nèi)部生產(chǎn)芯片。雖然這讓英特爾對其技術(shù)有了更大的控制權(quán),但它需要大量的時間和資源。

英偉達(dá)的人工智能戰(zhàn)略是提供通用gpu和CUDA軟件支持,可用于任何人工智能應(yīng)用程序。它也有一個NVL油墨互連。該公司正在與企業(yè)合作,探索人工智能的新市場。雖然這一策略涉及到大量的研究和失敗的風(fēng)險,但這些風(fēng)險以高回報的形式給予了良好的回報。

智通聲明:本內(nèi)容為作者獨(dú)立觀點(diǎn),不代表智通財經(jīng)立場。未經(jīng)允許不得轉(zhuǎn)載,文中內(nèi)容僅供參考,不作為實(shí)際操作建議,交易風(fēng)險自擔(dān)。更多最新最全港美股資訊,請點(diǎn)擊下載智通財經(jīng)App
分享
微信
分享
QQ
分享
微博
收藏