《科技》新品AI加速晶片 明年市場2主流

若探究HBM各世代差異,主要以速度做細分。除了市場已知的HBM2e外,在進入HBM3世代時,產業出現較爲混亂的名稱。

TrendForce特別表示,目前市場所稱的HBM3實際需細分爲兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。

目前三大原廠HBM發展進度如下,兩大韓廠SK海力士(SK hynix)、三星(Samsung)先從HBM3開發,代表產品爲NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠再預計於2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發HBM3e。

HBM3e將由24Gb mono die堆疊,在8層(8Hi)的基礎下,單顆HBM3e容量將一口氣提升至24GB,此將導入在2025年NVIDIA推出的GB100上,故三大原廠預計要在2024年第一季推出HBM3e樣品,以期在明年下半年進入量產。

觀察AI伺服器(AI server)所用的加速晶片,其中輝達(NVIDIA)Server GPU市佔最高。然而,單張2萬~2.5萬美元的H100/H800,一臺AI伺服器建議配置約爲8張卡,也使得總體擁有成本(Total Cost of Ownership,TCO)大幅提升。TrendForce觀察到,各雲端服務業者(CSP)雖然仍會向NVIDIA或超微(AMD)採購Server GPU,但也同步進行自研AI加速晶片的計劃,欲擺脫對NVIDIA與AMD的依賴。

除了已行之有年的Google TPU與AWS Trainium和Inferentia外,Google與AWS正着手研發次世代自研AI加速晶片,將採用HBM3或HBM3e。TrendForce表示,其他包含北美及大陸的雲端服務業者亦有相關驗證進行中,預期未來AI加速晶片版圖競爭會更加激烈。