機構(gòu):預計2023年對HBM需求量將增加60%,達到2.9億GB
2023-06-28
來源:集微網(wǎng)
1082
TrendForce集邦咨詢6月28日發(fā)表研報,稱目前高端AI服務器GPU搭載HBM芯片已成主流,預計2023年全球HBM需求量將年增近六成,達到2.9億GB,2024年將再增長30%。
機構(gòu)預計到2025年,全球如果等同于ChatGPT的超大型AIGC有5款,類似Midjourney的中型產(chǎn)品有25款,以及80款小型產(chǎn)品,在這個條件下,上述所需的運算資源至少包含145600~233700顆英偉達A100 GPU;再加上超級計算機、8K影音串流、AR/VR等應用,也將進一步提高云端運算系統(tǒng)的負載。
由于HBM內(nèi)存芯片擁有比DDR SDRAM更高的帶寬、相對較低的能耗,因此近年來發(fā)布的旗艦HPC處理器、運算加速GPU均在采用HBM內(nèi)存。預計未來,HBM可以取代一部分GDDR SDRAM顯存以及DDR SDRAM普通內(nèi)存。
集邦咨詢預計,目前英偉達A100、H100、AMD MI300,以及大型云服務提供商谷歌、AWS等自主研發(fā)的ASIC AI服務器增長需求較為強勁,預計2023年AI服務器出貨量(含GPU、FPGA、ASIC等)預估在120萬臺,年增長率近38%。AI芯片出貨量同步看漲,預計今年將增長50%。
