賦能人工智能:促進半導體及數據中心發展的動力
投資組合經理Richard Clode及Guy Barnard對NVIDIA最新的產品發佈進行討論,並提供實例說明科技及房地產公司如何攜手合作,共同賦能生成式人工智能,並從生成式AI的持續需求中受惠。

6 分鐘閱讀
焦點分析:
- NVIDIA繼續提供性能更強、速度更快及耗電量更低的人工智能產品。
- 數據中心基礎設施及支出的持續增長形成強勁的需求,令數據中心類房地產投資信託基金(REIT)受惠。
- 科技及房地產公司正攜手合作,創造多種增長途徑,以滿足生成式人工智能不斷增長的需求。
由於生成式人工智能(genAI)仍處於發展初階,存在各式各樣、令人興奮的現有及新的使用案例,刺激企業及政府的需求及投資不斷增加。然而,這一切需要AI基礎設施的支撐 – 硬件(例如圖形處理器(GPU)、伺服器、數據儲存)及軟件(編程語言、平台、工具)。用於容納伺服器的數據中心同樣重要,需要大量能源供電及製冷。該等關鍵AI推動要素背後的公司正保持緊密合作,以利用AI帶來的益處。
科技視角(Richard)
NVIDIA近期於聖荷西舉行的GTC大會被稱作「AI時代的大會」,會議不負眾望,發布大批創新成果。新一代晶片架構Blackwell的推出成為重頭戲,其以首位進入美國國家科學院的非裔美國數學家的名字命名。新晶片擁有的電晶體數量龐大,達到2,080億隻,而上一代晶片只有800億隻。1由於單個GPU晶粒的尺寸已達到ASML光刻機的實體光罩尺寸上限(光刻機製造晶片所能蝕刻的最大尺寸),為此,新晶片採用將兩個獨立的GPU晶粒拼接的方式。
NVIDIA繼續透過創新的先進封裝技術以及顯著利用更高頻寬的記憶體,挑戰摩爾定律的衰減趨勢。然而,該公司認為生成式AI極其複雜,只能通過全棧解決方案解決,促使NVIDIA的專有高性能聯網與互聯器(例如NVLink)以及搭載第二代Transformer Engine的軟件相結合,該引擎使大型語言模型,能夠以較低精密度的計算進行訓練和推斷。該功能顯著提高了性能,同時降低了耗電量。
在GTC大會上,NVIDIA通過發佈GB200 NVL72,將該全棧解決方案提升至新的水平。GB200 NVL72是使用通用圖形處理器(GPGPU)加速深度學習應用程式的伺服器及工作站。傳統上,NVIDIA銷售的主板由八個GPU組成,但新產品是全棧解決方案,由72個GPU及36個Grace Hopper ARM CPU組成 – 全部透過數千個NVLink相互連接。該解決方案提供前所未有的運算能力,與NVIDIA的H100 Tensor Core GPU相比,僅用25%的耗電量,就能夠以4倍的速度訓練萬億參數的大語言模型。更令人驚歎的是,可以將AI推理的速度提高30倍。運算產生的強大運算能力需要消耗大量電力,但NVIDIA正從氣冷散熱,過渡至液冷散熱,從而使機櫃能夠在不過熱的情況下增加運算密度,減少所需佔地面積,這是數據中心整體耗電量的關鍵驅動因素。與H100氣冷式基礎設施相比,GB200能夠在相同耗電量下提供25倍的效能,同時降低耗水量。
NVIDIA最近透露,來自主權國家(政府)的需求龐大,在數量上相當於三大科技巨企(hyperscalers)的合計需求。這是促使NVIDIA首席執行官黃仁勳認為,當前1萬億美元的數據中心基礎設施的安裝基數能夠於未來四至五年增至2萬億美元的關鍵驅動因素。長期來看,數據中心基礎設施的年度開支將由2,500億美元增至5,000億美元。2對於缺乏技術能力,無法自行設計AI訓練或推理集群,且更願意購買現成產品的主權國家而言,GB200 NVL72提供的全套伺服器機架產品是理想的解決方案。
房地產視角(Guy)
AI及機器學習應用程式的增長需要大量的運算能力及數據儲存,是推動潛在租戶對數據中心先進功能需求的多項因素中最新的一項。對於尋求在AI及數碼基礎設施領域實現宏大增長計劃的客戶而言,彼等對數據中心類REIT的需求激增。事實上,美國2023年的新租賃活動總金額與此前三年(2020年至2022年)的合計金額相同。3
有關未來由AI推動的需求增長的部分預測令人驚歎:據摩根士丹利預測,到了2032年或之前,公共雲端市場將由目前的超過5,000億美元激增至2.5萬億美元。4Boston Consulting Group預測,到了2030年或之前,AI運算的未來需求將導致數據中心耗電量增長三倍 – 相當於三分之一的美國家庭一年的耗電量。5
身為全球最大數據中心類REIT的Equinix,正是從數據中心需求的持續增長中受惠的一家公司。Equinix創辦於25年前,開發出全球互連程度最高的數據中心平台。Equinix是一家名副其實的全球性公司,其過半數的收入來自美國以外地區。該公司亦致力於到了2030年或之前,在全球各地實現氣候中和,且近年來已實現超過90%的可再生能源覆蓋率。
Equinix最近宣佈與NVIDIA合作,以外判方式將該晶片公司的超級運算系統提供給其企業客戶。這使得Equinix的客戶更容易操作「私人AI」運算系統,從而實現定制化用例及更好控制專有數據,而非倚賴亞馬遜(AWS)及微軟(Azure)等基於雲端運算平台,後兩者可能會引發部分用戶對數據私隱的憂慮。NVIDIA已對Equinix的員工進行培訓,幫助其構建及運行自身的系統,該等系統將使Equinix向其租戶提供的服務上升至新的水平,最終會開闢新的收入來源。
我們認為,這是數據中心多種增長途徑的其中一例子,因為世界各地企業預期在快速變化的科技時代相互競爭及保持實力。
總結
生成式AI的需求擴大既創造了機遇,又帶來了風險,關鍵推動者有望實現可觀收益。該特點加上向新技術轉型,有助於降低耗電足跡,為科技及房地產等多個板塊的主動型投資者創造多種機會。
在後續文章中,我們將從地緣政治及可持續發展的角度,深入分析AI及數據中心的增長,是如何加劇半導體貿易的緊張局勢、 監管改革帶來的風險(鑑於AI永無止境的電力需要),及其對投資者的啟示。
環球可持續發展股票團隊亦在即將發表的名為「數據中心熱潮:應對電力短缺問題」的文章中探討該等主題。
1 NVIDIA新聞中心,2024年3月18日:《NVIDIA推出Blackwell平台,迎來新的運算時代》。
2 黃仁勳在GTC 2024發表的主題演講。
3 UBS Data Center Hawk,2024年2月24日。
4 摩根士丹利、IDC。摩根士丹利研究部有關環球電訊、科技及基建的研究,2024年2月27日。
5 NuScale呈交的非專有資料。Boston Consulting Group的數據:生成式AI對電力的影響。生成式AI如何推動美國的數據中心熱潮,2023年9月13日。
AI推理:指人工智能處理,涉及利用經過訓練的神經網絡模型的知識以推斷結果。
全棧解決方案:通常適用於數據中心,伺服器託管及網絡環境。指在數據中心租用或購買一整套伺服器設備及服務。該解決方案包括實體機架空間、該空間內容納的伺服器及硬件、網絡設備(例如交換器及路由器)、電力管理系統及冷卻機制,以確保設備高效並可靠地運行。
全棧解決方案:指一種全面的軟件開發方法,涵蓋應用程式或項目的所有層次,包括前端及後端組件,以及應用程式完全運行所需的任何其他層次組件。
生成式AI:生成式AI指深度學習模型,利用大量原始數據進行訓練,以生成包括文本、圖像、音頻及視頻在內的「新內容」。
GPU:執行圖形渲染(graphics rendering)所需的複雜數學和幾何計算的圖形處理器。
GPU晶粒:指組成處理器(GPU或CPU)的裸矽晶片。晶粒一詞通常與「晶片」交換使用。
GPGPU:通用圖形處理器利用通常用於生成電腦圖形的GPU,來執行原本由中央處理器(CPU)完成的任務。
科技巨企(hyperscalers):大規模提供雲端、網絡及互聯網服務基礎設施的公司,實例包括Google、微軟、Facebook、阿里巴巴及Amazon Web Services(AWS)。
LLM(大型語言模型):一類專門的人工智能,利用大量文本進行訓練,以了解現有內容並生成原始內容。
摩爾定律:預言微晶片上可容納的電晶體數量大約每經過兩年便會增加一倍,因此相應地成本會降低及性能會提升。
重要資料
恕不保證過往趨勢將會延續,或者預測將會實現。
科技產業或會受到現有科技過時、產品週期短、價格和利潤下跌、市場新對手帶來競爭以及整體經濟環境的重大影響。集中投資單一產業的波幅或會高於集中程度較低的投資和市場的表現。
REIT或房地產投資信託基金透過直接擁有房地產資產、房地產股份或按揭來投資於房地產。由於REIT在證券交易所上市,因此通常具有高流動性,並像股票一樣交易。
房地產證券包括房地產投資信託基金 (REIT),可能須承受額外風險包括利率、管理、稅務、經濟、環境和集中風險。