美光科技周一表示,已開始大規模生產其HBM3E記憶體。 該公司的 HBM3E 已知良好堆疊晶元 (KGSD) 將用於 NVIDIA 的 H200 計算 GPU,用於人工智慧 (AI) 和高效能計算 (HPC) 應用,將於 2024 年第二季度發貨。
美光透露,它正在量產 24 GB 8-Hi HBM3E 裝置,每台裝置的資料傳輸速率為 9 個2 GT s,峰值記憶體頻寬大於 12 tb/s。與 HBM3 相比,HBM3E 將資料傳輸速率和峰值記憶體頻寬提高了 44%,這對於像 NVIDIA H200 這樣需要頻寬的處理器尤為重要。
NVIDIA 的 H200 產品使用 Hopper 架構,具有與 H100 相同的計算效能。 同時,它配備了 141 GB 的 HBM3E 記憶體,頻寬高達 48 TBS,比 H100 HBM80 和 3 多 GB35 TBS的頻寬是乙個顯著的增加。
美光使用其 1 (1-Beta) 工藝技術生產其 HBM3E,這是該公司的一項重大成就,因為它將其最新的生產節點用於資料中心級產品,這是對製造技術的考驗。 隨著美光即將於 2024 年 3 月發布 36 GB 12-Hi HBM3E,該公司的 AI 記憶體路線圖進一步鞏固,而這些裝置下一步將在哪裡使用還有待觀察。
在競爭對手SK海力士和三星之前開始量產HBM3E儲存器是美光的一項重大成就,該公司目前在HBM領域擁有10%的市場份額。 此舉對該公司至關重要,因為它使美光能夠比競爭對手更早地推出高階產品,從而有可能增加收入和利潤率,同時獲得更大的市場份額。
美光科技執行副總裁兼首席商務官 Sumit Sadana 表示:"美光在這一 HBM3E 里程碑上連續三次獲得冠軍:領先的上市時間、一流的行業效能和差異化的能效功能。 AI 工作負載嚴重依賴記憶體頻寬和容量,而美光已做好充分準備,通過我們行業領先的 HBM3E 和 HBM4 路線圖,以及我們針對 AI 應用的全套 DRAM 和 NAND 解決方案組合,支援未來 AI 的大規模增長。 "