HBM 高頻寬儲存是堆疊 DRAM Die 實現小尺寸、高頻寬和高速傳輸的突破。 TSV 技術將多層 Die 連線到邏輯 Die,提供高達 800GB 的頻寬,以滿足高效能 AI 伺服器的 GPU 需求。
SK海力士發布了HBM3E,該處理器提供8Gbps傳輸速度和16GB記憶體,將於2024年量產。 HBM3E 是 HBM3 的擴充套件版本,可為高效能計算和 AI 應用提供突破性的效能。
HBM(高速寬頻儲存器)主要用於人工智慧(AI)伺服器。 最新一代 HBM3E 已經在 2023 年的 NVIDIA H200 中上市。 據Trendforce集邦諮詢預測,2022年AI伺服器出貨量為86萬台,預計到2026年將超過200萬台,復合年增長率為29%。
AI 伺服器的激增導致 HBM 需求激增和平均容量的增加。 預計25年後市場規模將達到150億美元,增幅超過50%,潛力巨大。
HBM**市場由三大儲存巨頭主導:SK海力士(53%)、三星(38%)和美光(9%)。 關鍵工藝技術,包括 CODO 和 TSV,推動了 HBM 在效能和成本方面的持續優化。
HBM1於2014年推出,由AMD和SK海力士聯合開發。 作為GDDR的競爭對手,其獨特的架構提供了128GB的頻寬和4GB的記憶體,遠遠超過了當時的GDDR5。
高速寬頻儲存技術的發展。
自 2016 年以來,HBM(高頻寬記憶體)技術不斷創新:
HBM2 (2018):8 層 DRAM,256GB s 頻寬,24Gbps傳輸速度,8GB記憶體。
HBM2E (2020):傳輸速度提高到 36Gbps,記憶體增加到 16GB。
HBM3 (2022):增加了堆疊層和管理通道,最高可達 819GB s,16GB 記憶體。
HBM3E(預計 2024 年):傳輸速度高達 8Gbps,容量增加到 24GB。
HBM 技術以其出色的頻寬和容量為高效能計算、人工智慧和圖形應用提供動力。
HBM 憑藉其高頻寬、低功耗、體積小等優點,成為 AI 伺服器場景的最佳選擇。 從 2016 年首次推出搭載 HBM2 的 NVP100 GPU,到 2023 年英偉達發布的搭載 HBM3E 的 H200,HBM 始終走在伺服器技術的最前沿。
從 HBM2、HBM2E 到 HBM3,每一代 HBM 都能顯著提公升效能和容量。 最新的 HBM3E 提供更快的速度和更大的容量,以滿足 AI 伺服器快速發展的需求。
HBM市場由三大巨頭主導:SK海力士(50%的市場份額)、三星(40%的市場份額)和美光(10%的市場份額)。 SK海力士率先在**HBM3E上確立了市場地位。 SK海力士預計2023年市場份額將上公升至53%,進一步擴大其優勢。 作為主要的雲製造商,三星的市場份額將降至38%。 美光的市場份額預計為9%。
HBM 封裝工藝的變化主要體現在 COWO 和 TSV 上。
Codos:晶元封裝創新。
Cowos 是一種先進的晶元封裝技術,將 DRAM 晶元與底層基板整合到矽中介層上。 它通過 Chonwafer (COW) 工藝實現更短的互連長度,從而實現更高的資料傳輸速度。
CoWDOS 目前是高效能計算 (HPC) 晶元中 HBM 和 GPU 整合的首選解決方案。 它已被應用於 NVIDIA A100 和 GH200 等計算晶元,並因其卓越的效能和可靠性在 HPC 領域發揮著至關重要的作用。
TSV 矽通孔是 HBM 的一項關鍵技術,它通過垂直互連連線多個 DRAM 晶元來增加容量和頻寬。 TSV在矽片的厚度上打孔,在正反面之間形成通道,使所有晶元相互連線並向外連線,有效提高HBM的效能和效率。
- 你對此有何看法? -
- 歡迎留言**並在評論區分享。 -