產業分析-美國增加晶片負向條例 AI伺服器的機遇與挑戰

隨着AI伺服器建置熱潮,拉動AI加速晶片需求,尤以中國、美國最積極扶持AI產業聚落。圖/新華社

2022~2026年全球AI伺服器出貨量預估

(更多產業分析請掃QR Code)

2023年全球AI伺服器市佔率預估

據TrendForce研究預估,2023年人工智慧(AI)伺服器(包含搭載GPU、FPGA、ASIC等)出貨量逾120萬臺,年增將達37.7%,佔整體伺服器出貨量達9%。2024年將再成長逾38%,出貨量約167.6萬臺,佔比將逾12%。

■AI伺服器與AI晶片

的競爭格局

全球伺服器中美兩大體系在美國祭出晶片出口管制後更明顯,即使中國伺服器廠商想進口高階GPU也無計可施,僅能退而求其次的採用其他運算能力次之的晶片,例如浪潮、聯想。

浪潮擁有完整的伺服器產品線,包含AI運算產品矩陣,其Transformer訓練伺服器除了輝達(NVIDIA)GPU晶片之外,仍具備整機到平臺軟體的全棧AI運算方案優勢,且於2022年該廠商AI伺服器產品在MLPerf評測中,有半數獲得冠軍;其中,5款伺服器改用A800、重新配置,機箱高度以4U居多,型號分別是NF5688M6、NF5488A5、NF5468A5、NF5448A6與NF5468M6,CPU則是搭載超微(AMD) EPYC或英特爾(Intel)Ice Lake,以滿足客戶需求緩解訂單的問題。

聯想爲積極打造AI基礎設施,現階段依託「端-邊-雲-網-智」新IT架構,爲客戶提供全棧式產品、服務與方案,協助其加快智慧轉型進程,從而推動智慧算力勢能,擴大產品滲透率。因此聯想在2023年第三季發佈2款AI伺服器,分別是WA7780 G3、WA5480 G3,前者主要是以AI訓練爲主,故採用輝達H800、英特爾Sapphire Rapids,後者則是AI訓練與推理一體機,最多可支援十張輝達H800。

有鑑於此,輝達爲維持GPU產品(含系統平臺)6成的市佔率,近期積極向中國出售A800、H800,試圖以中、低階晶片穩定其在中國市場的地位與營業利潤,即使2023下半年需求曲線傾向這些新型號,但仍須留意超微、英特爾等競爭者。

由於美國10月17日祭出的禁令管制範圍擴張至A800、H800及L40S,TrendForce預估中國大型雲端業者(CSP)ByteDance、Baidu、Alibaba及Tencent(BBAT)對輝達的高階AI伺服器需求量將由原估約佔整體AI伺服器的5~6%,進一步降低至3~4%。

■AI伺服器需求刺激,

HBM營收將高速成長

隨着AI伺服器建置熱潮,拉動AI加速晶片需求,尤以中國、美國最積極扶持AI產業聚落。中國不斷釋出對AI的扶植舉措,擴張應用服務和加快產品創新,推動以AI伺服器爲代表的諸多領域形成產業集羣,例如自駕車、機器人、語音助理等。面對大量數據生成則需要更高效能的處理系統,因而陸續採用中低階晶片支援資料中心的營運,甚至竭力推助半導體產業在自主研發的能力,基於二期大基金的底蘊加上三期大基金即將到來,有望充填研發設計與生產的資金需求。

再者,北美地區的大規模資料中心內部的高效能運算應用程式、虛擬機逐年擴增,以及美國積極推進DCOI戰略計劃以優化資料中心,包含EPA的58座非分層資料中心與運算機房。

由於中美都特別重視資料中心的長期規劃與發展,試圖將其統籌並部署高效能系統與相應的硬體,從而提升數據傳輸網路速率。因此HBM(High Bandwidth Memory)的技術突破與應用相當重要,TrendForce預期北美、中國市場對HBM需求將大幅增加,而且鑑於HBM相較其他DRAM產品的平均單位售價高出數倍,故2024年記憶體原廠的營收挹注較爲顯著,預估2024年HBM營收年增長率將達172%。