智通財經(jīng)APP獲悉,社交媒體Facebook和Instagram母公司Meta Platforms(META.US)計劃今年在其數(shù)據(jù)中心部署一款新版本的定制化AI芯片,旨在支持其人工智能(AI)技術(shù)發(fā)展。這款芯片是Meta去年宣布的“第二代內(nèi)部芯片生產(chǎn)線”,可能有助于減少對占據(jù)AI芯片市場主導(dǎo)地位的英偉達(dá)(NVDA.US)旗下昂貴AI芯片的重度依賴——這也是谷歌和微軟選擇自研AI芯片的原因之一,并在Meta計劃推出新的人工智能產(chǎn)品之際,控制與運行人工智能訓(xùn)練/推理工作負(fù)載相關(guān)的不斷上升的成本。
這家全球最大規(guī)模的社交媒體公司一直在不斷提升計算能力,以支持對算力和電力消耗極高的生成式人工智能產(chǎn)品,該科技巨頭正在將其開發(fā)的生成式AI產(chǎn)品Meta AI推向全球的Facebook、Instagram和WhatsApp等Meta家族應(yīng)用程序,以及Ray-Ban智能眼鏡等硬件設(shè)備。Meta已經(jīng)斥資數(shù)十億美元積累了大量AI芯片,比如英偉達(dá)H100,并重新配置了數(shù)據(jù)中心以適應(yīng)這些芯片。
硅研究集團(tuán)SemiAnalysis的創(chuàng)始人迪倫?帕特爾(Dylan Patel)表示,以Meta的運營規(guī)模,成功部署自己的AI芯片,每年可能將節(jié)省數(shù)億美元的能源成本和數(shù)十億美元的芯片采購成本。
運行ChatGPT等生成式人工智能應(yīng)用所需的芯片、基礎(chǔ)設(shè)施和能源已經(jīng)成為科技公司投資的“巨大天坑”,在一定程度上抵消了圍繞這項技術(shù)的興奮熱潮所帶來的收益。
科技巨頭們紛紛擁抱自研AI芯片
Meta的一位發(fā)言人證實了將于2024年投產(chǎn)的計劃,稱該芯片將與該公司正在購買的數(shù)十萬個現(xiàn)成英偉達(dá) H100等AI芯片協(xié)同工作。該發(fā)言人在一份聲明中表示:“我們認(rèn)為,我們內(nèi)部開發(fā)的AI加速器在為Meta特定的AI工作負(fù)載提供最佳的性能和效率組合方面,將與市售的商用AI芯片形成高度互補(bǔ)?!?/p>
Meta首席執(zhí)行官馬克·扎克伯格在上個月曾表示,該公司計劃在今年年底前擁有大約35萬顆來自英偉達(dá)的旗艦AI芯片——H100,這是英偉達(dá)研發(fā)的當(dāng)前全球最受歡迎的用于人工智能工作負(fù)載的服務(wù)器GPU。他在當(dāng)時強(qiáng)調(diào),與自研版全新AI芯片以及其他潛在供應(yīng)商的AI芯片加起來后,Meta將累積等效于60萬個H100 AI芯片的計算能力。
作為該計劃的一部分,部署自己的自研AI芯片對Meta的內(nèi)部人工智能芯片項目來說是一個積極的轉(zhuǎn)折,此前該公司高管在2022年決定停止該芯片的“第一次迭代”。
相反,該公司選擇購買價值數(shù)十億美元的英偉達(dá)AI芯片,后者在一個名為“訓(xùn)練”的人工智能負(fù)載工作過程中幾乎占據(jù)壟斷地位,該過程涉及將大量數(shù)據(jù)集輸入模型,教它們?nèi)绾螆?zhí)行任務(wù)。由于英偉達(dá)AI芯片的獨有架構(gòu),英偉達(dá)H100等芯片在推理領(lǐng)域同樣能夠勝任,但是推理領(lǐng)域算力要求遠(yuǎn)不及訓(xùn)練端,因此在推理領(lǐng)域面臨的競爭對手相對較多。
相比于英偉達(dá)或者AMD的通用型AI芯片,自研AI芯片,也被稱作ASIC,往往更適合科技公司本身的人工智能工作負(fù)載需求且成本較低。
比如,云計算巨頭微軟和亞馬遜選擇自研AI芯片主要是為了優(yōu)化特定AI計算任務(wù)的性能和成本效率,同時減少對英偉達(dá)等外部供應(yīng)商的依賴。自研AI芯片往往能夠更好地整合進(jìn)公司的云計算平臺和服務(wù)中,提供定制化的解決方案以滿足特定的業(yè)務(wù)需求。
全球第一大公有云巨頭——亞馬遜旗下的AWS近期宣布推出為生成式AI和機(jī)器學(xué)習(xí)訓(xùn)練而設(shè)計全新自研AI芯片AWS Trainium2,性能比上一代芯片提高到4倍,可提供65ExaFlops超算性能。微軟近期宣布推出第一款定制的自研CPU 系列 Azure Cobalt 和AI加速芯片 Azure Maia,后者是微軟首款人工智能芯片,主要針對大語言模型訓(xùn)練,預(yù)計將于年初開始在微軟Azure數(shù)據(jù)中心推出,該數(shù)據(jù)中心還將結(jié)合英偉達(dá)最新款A(yù)I加速器。另一大云巨頭谷歌近期宣布推出新版本的TPU芯片TPU v5p,旨在大幅縮減訓(xùn)練大語言模型時間投入,v5p是2023年早些時候全面推出的Cloud TPU v5e的更新版本。
Meta自研版全新AI芯片聚焦推理端
相較于AI訓(xùn)練,AI推理領(lǐng)域?qū)τ凇昂A繑?shù)據(jù)轟炸”應(yīng)用背景下的GPU并行化算力需求遠(yuǎn)遠(yuǎn)不及訓(xùn)練領(lǐng)域,推理進(jìn)程涉及應(yīng)用已經(jīng)訓(xùn)練好的模型來進(jìn)行決策或識別,極度擅長復(fù)雜邏輯處理任務(wù)和控制流任務(wù)的以CPU為核心的中央處理器足以高效率地應(yīng)付諸多推理場景。
從產(chǎn)業(yè)發(fā)展趨勢來看,AI算力負(fù)載大概率將逐步從訓(xùn)練全面向推理端遷移,這意味著AI芯片門檻可能將顯著降低,覆蓋可穿戴設(shè)備、電動汽車以及物聯(lián)網(wǎng)等領(lǐng)域的芯片公司未來有望全面滲透至AI推理芯片領(lǐng)域。
華爾街大行摩根士丹利在2024年十大投資策略主題中指出,隨著消費類邊緣設(shè)備在數(shù)據(jù)處理、存儲端和電池續(xù)航方面的大幅改進(jìn),2024年將有更多催化劑促使邊緣AI這一細(xì)分領(lǐng)域迎頭趕上,AI行業(yè)的發(fā)展重點也將從“訓(xùn)練”全面轉(zhuǎn)向“推理”。
邊緣AI是指在端側(cè)設(shè)備(如PC、智能手機(jī)、IoT設(shè)備和汽車等)上直接進(jìn)行AI數(shù)據(jù)流處理的技術(shù)。市場研究機(jī)構(gòu)Gartner預(yù)計到2025年,50%企業(yè)數(shù)據(jù)將在邊緣端創(chuàng)建,跨越數(shù)十億臺設(shè)備。這意味著AI大模型的推理(即應(yīng)用模型進(jìn)行決策或識別的過程)有望批量在端側(cè)設(shè)備進(jìn)行,而不是在遠(yuǎn)程服務(wù)器或云端。
高通CEO Amon則指出,芯片制造商們的主要戰(zhàn)場不久后將由“訓(xùn)練”轉(zhuǎn)向“推理”。Amon在近日接受采訪時表示:“隨著AI大模型變得更精簡、能夠在設(shè)備上運行并專注于推理任務(wù),芯片制造商的主要市場將轉(zhuǎn)向‘推理’,即模型應(yīng)用。預(yù)計數(shù)據(jù)中心也將對專門用于已訓(xùn)練模型推理任務(wù)的處理器產(chǎn)生興趣,一切都將助力推理市場規(guī)模超越訓(xùn)練市場?!?/strong>
據(jù)了解,Meta的這款全新自研AI芯片內(nèi)部被稱為“Artemis”,和它的前身一樣,只能執(zhí)行一個被稱為“推理”的人工智能負(fù)載工作過程,在這個過程中,模型被要求使用它們的算法來做出排名判斷等響應(yīng),并對用戶的提示做出回應(yīng)。
有媒體曾在去年報道稱,Meta正在開發(fā)一款更有雄心的芯片,像英偉達(dá)H100一樣,能夠同時進(jìn)行訓(xùn)練和推理。
這家總部位于加州門洛帕克的科技巨頭曾于去年曾分享了第一代Meta訓(xùn)練和推理加速器(MTIA)項目的相關(guān)細(xì)節(jié)。但是這一公告僅僅將該版本的芯片描述為一個學(xué)習(xí)機(jī)會。該計劃此后并未被Meta提及。
帕特爾表示,盡管早期出現(xiàn)了一些難以解決的問題,但在處理Meta的推薦模型等推理功能時,推理領(lǐng)域的AI芯片可能比耗電的英偉達(dá)H100等芯片要高效得多?!耙虼?,大量的資金和電力將有望全面節(jié)省下來?!?/p>