HBM3E DRAM 將改善生成式 AI 服務並降低成本。
人工智慧熱潮如火如荼,晶元製造商正在推出新的先進記憶體技術。 下一代高頻寬記憶體 (HBM) 有望顯著提高頻寬和容量,三星的目標是引領行業。
儘管在HBM3E市場有點晚,但三星推出了HBM3E 12H DRAM晶元,作為3D分層記憶體技術的突破性成就。 這家南韓巨頭的最新儲存晶元採用新穎的 12 層堆疊,與具有 50 層堆疊的 HBM3E 晶元相比,效能和容量提高了 8%。
三星聲稱 HBM3E 12H 晶元可以實現每秒高達 1,280 GB 的頻寬,提供前所未有的 36 GB 容量。 三星利用先進的熱壓縮非導電膜 (TC NCF) 在同一晶元中實現 12 層堆疊,似乎保持了與 8 層晶元相同的高度規格,滿足了當前 HBM 記憶體封裝應用的要求。
TC NCF 還具有實現業界最小的 7 微公尺晶元間隙的額外優勢,同時還減少了層與層之間的空隙。 與HBM3E 8H晶元相比,垂直DRAM密度最多可提高20%。 據我們所知,製造工藝的改進也提供了更好的熱效能和更高的產品良率。
這家總部位於首爾的公司預計,隨著對DRAM記憶體的需求持續增長,其最新一代HBM3E(12H)晶元將為AI加速器提供“同類最佳”的解決方案。 與 HBM3 8H 晶元相比,三星的 HBM3E 12H 記憶體似乎平均快 34% 用於 AI 模型訓練。 此外,該公司聲稱推理服務的併發使用者數量可以擴大“115 倍以上”。
三星目前正在向部分客戶提供首款 HBM3E 12H 晶元樣品,預計將於 2024 年上半年量產。 與此同時,HBM3E市場的另乙個主要參與者美光宣布全面生產其最新的3D儲存晶元。 這家總部位於愛達荷州的公司正在大力投資“傳統”的 8 層 HBM3E 晶元設計,以改善其 2024 財年的財務業績。
美光將為 NVIDIA 即將推出的 H8H HBM3E 提供 200GB 8Hbm 晶元,用於其即將推出的 H8 Tensor Core GPU,這是一款強大的 AI 加速器,將於 2024 年下半年上市。 與三星類似,美光將其 HBM3E 技術定位為用於密集型應用和生成式 AI 服務的領先記憶體解決方案。
Hbm3E 晶元的引腳速度超過每秒 9 個2 Gb (GBS),每秒提供超過 1 個2 TB 的記憶體頻寬。 該公司表示,它的功耗比競爭對手低30%,24GB的容量使資料中心運營商能夠“無縫擴充套件”,用於廣泛的人工智慧應用。
美光執行副總裁兼首席商務官Sumit Sadana強調,在人工智慧需求激增的情況下,該公司的新型HBM3E晶元可以支援業務增長。 展望未來,美光正準備在3月份提供36GB 12高HBM3E晶元的首批樣品。
中國科技年