據The Information周五報道稱,英偉達(NVDA.US)扶持的云計算提供商CoreWeave近期下調了今年的預期收入和資本支出,原因是無法獲得符合預期的GPU等關鍵設備。
在今年4月,該公司曾對投資者表示,預計今年的收入將為6.3億元,但6月CoreWeave將這一預期下調至略高于5億美元。
同時,CoreWeave的資本支出也從33億美元下調至23億美元。The Information指出,這可能意味著CoreWeave無法獲得預期的那么多芯片,或者它無法在數據中心獲得足夠的空間來履行對客戶的承諾。
CoreWeave早先是一家以向加密貨幣“挖礦”者租借GPU為主業(yè)的公司,并在成立之后購買了大量的英偉達GPU。最近這家公司開始向人工智能和機器學期開發(fā)公司租借GPU,在今年早些時候獲得了英偉達的1億美元投資。
今年以來,CoreWeave已通過債務和股權融資超過27億美元,以投資更多的芯片和數據中心,英偉達也將CoreWeave納入其最先進的人工智能芯片H100的首批出貨名單中。
然而,由于英偉達H100的需求量過大,目前產能已經成為亟待解決的問題。
華爾街見聞稍早時候曾介紹,英偉達將于2023年在全球出貨約55萬塊H100顯卡,但目前英偉達的合作伙伴臺積電幾乎無法滿足計算GPU的生產需求,因為臺積電一直使用CoWoS封裝,作為代工廠的臺積電正在努力提高這種芯片封裝方法的產能。
即便CoreWeave擁有英偉達優(yōu)先出貨的優(yōu)勢,但產能的限制仍使其無法達成預期中的增長。
Bernstein Research高級半導體分析師Stacy Rasgon對此表示:
即使英偉達優(yōu)先考慮這些芯片,許多其他公司也想購買它們的零部件。
任何時候你的增長達到這種水平,總會有成長的煩惱。
競爭挑戰(zhàn)
CoreWeave所面臨的挑戰(zhàn)不止于此。
英偉達目前的H100主要銷往美國科技公司,但中東玩家現在也加入了賽場。
據英國《金融時報》,沙特已通過公共研究機構阿卜杜拉國王科技大學(Kaust)購買了至少3000塊英偉達的H100顯卡,阿聯酋也將獲得數千塊英偉達顯卡,并已在阿布扎比馬斯達爾城的國有技術創(chuàng)新研究所開發(fā)了自己的開源大型語言模型——Falcon。
此外,據一位了解其財務狀況的人士向The Information透露,目前該公司的絕大部分收入僅來自少數幾家大客戶。而另一家同樣從英偉達獲得H100的新興云提供商Lambda Labs,雖然收入低于CoreWeave,但它的客戶名單更長,且同樣也也將與英偉達達成股權融資協(xié)議。
CoreWeave的增長依然是驚人的,即便是調低了5億美元的預計收入,也比該公司2022年約2500萬美元的收入增長了25倍左右。CoreWeave預計明年的收入為23億美元。
CoreWeave表示,到2026年,該公司簽署的云服務合同將超過70億美元,高于今年早些時候的50億美元。
能耗難題
GPU的瓶頸來自供應商英偉達的產能,而承載GPU的數據中心的瓶頸則是高昂的能耗。
云服務商一般通過購買或租用數據中心的方式在托管包含GPU的服務器,但英偉達H100比其早期的芯片消耗更多的能量,單個H100芯片的功耗高達700瓦。
本周早些時候,在加州圣何塞舉行的一次行業(yè)會議上,數據中心運營商表示,他們正在努力跟上人工智能的發(fā)展,但很難建立和運行足夠多的數據中心,以容納英偉達最新的芯片,并滿足云服務商的需求。
對于能耗問題,CoreWeave表示,它已經在三個數據中心獲得了約15兆瓦的電力,另外三個數據中心計劃在2023年開放,這可能使容量達到約40兆瓦。該公司表示,明年其數據中心的容量可能會擴大到70兆瓦,足以容納10萬個H100芯片。
華爾街見聞此前曾介紹,數據中心為訓練AI模型產生的能耗將為常規(guī)云工作的三倍,2030年,美國數據中心的電力需求預計將以每年約10%的速度增長。
AI服務器的功率較普通服務器高6-8倍,這對于電源的需求也將同步提升,通用型服務器原來只需要2顆800W服務器電源,而AI服務器的需求直接提升為4顆1800W高功率電源,服務器能耗成本直接3100元直接飆升到12400元,大漲3倍。
據咨詢機構Tirias Research建模預測,到2028年數據中心功耗將接近4250兆瓦,比2023年增加212倍,數據中心基礎設施加上運營成本總額或超760億美元。
該機構稱,生成式AI帶來的種種創(chuàng)新功能,都是以處理性能和功耗方面的高昂成本為代價。
因此,雖然人工智能的潛力可能是無限的,但物理和成本最終可能是界限。
本文編選自“華爾街見聞”,作者:周曉雯;智通財經編輯:陳筱亦。