近年來,隨著全球對算力的需求逐漸向人工智慧領域轉移,AI伺服器作為滿足這一需求的關鍵力量,正在呈爆炸式增長。 據市場**,未來幾年AI伺服器出貨量將保持較快增長,預計2023年將達到約118萬台,同比增長率為384%。隨著AI硬體市場的擴大,預計到2026年全球AI伺服器的比例將增加到15%。 AI伺服器預計將以29%的復合年增長率增長,顯示出強勁的增長勢頭。
AI伺服器根據應用場景分為訓練和推理兩大類。 目前,國內AI伺服器的推理負載已達到55個左右5%,預計未來將繼續增長。 對於訓練場景,對晶元的算力要求更為嚴格,而推理場景對算力的要求相對較低。 因此,AI 伺服器通常是異構的,可以配備不同型別的晶元,例如 CPU、GPU、FPGA 和 ASIC。
目前,GPU 仍然是資料中心加速的首選解決方案,尤其是在深度學習訓練方面。 然而,隨著人工智慧產業的發展,其他非GPU晶元的應用正在逐漸增加。 據市場**,到2025年,其他非GPU晶元佔比將超過20%,呈現晶元應用多元化趨勢。 ASIC 通常提供出色的效能,但缺乏靈活性和可程式設計性。 相比之下,GPU 更適合訓練或通用場景。 FPGA 具有快速、低功耗、靈活和高效的特點,為 AI 訓練提供足夠的計算能力,並可靈活地重新程式設計以滿足不同的任務需求。
傳統的 GPU 最初是為圖形渲染計算而設計的,但隨著 AI 計算需求的增長,GPGU 應運而生。 GPGPU通過去除GPU的圖形顯示部分,將其餘的計算資源用於通用計算,廣泛應用於AI、資料分析和高效能計算。 通用GPU在硬體加速能力方面具有顯著優勢,尤其是在深度學習訓練方面,已成為主流的AI硬體產品。
在市場上,英偉達、AMD、寒武紀、華為等公司的產品佔據了很大的市場份額。 憑藉成熟的晶元設計、先進的製程產能優勢、完整的CUDA生態,英偉達在AI晶元領域佔據顯著優勢。 其強大且快速迭代的AI晶元已廣泛應用於集群、邊緣計算和高效能計算。
AI伺服器的核心元件包括GPU、DRAM、SSD、RAID卡、CPU、網絡卡、PCB、高速互連晶元、散熱模組等。 隨著對GPU算力需求的增加,對硬體的傳輸速率也提出了更高的要求。 這推動了對高頻和高速板、HDI 和 ABF 載板的需求增長。 同時,為了滿足更高的傳輸效率,還需要低損耗的覆銅板,這對PCB及其上游材料**端有促進作用。
此外,隨著AI伺服器出貨量的持續增長,對HBM(高頻寬記憶體)的需求也呈爆炸式增長。 HBM 因其高頻寬、低功耗、體積小等優點,被廣泛應用於 AI 伺服器場景。 HBM 主要應用於高效能伺服器領域,其應用進度從 2016 年的 NVP100GPU(採用 HBM2 技術)開始,隨後應用於 V100、A100 和 H100 產品。 NVIDIA 的 H200 採用了最新一代的 HBM3E 技術,可為伺服器提供更快的資料處理速度和更高的記憶體容量。
市場對AI伺服器的需求持續旺盛,隨著AI技術的發展和未來應用場景的擴充套件,對其效能、穩定性、可擴充套件性提出了更高的要求。 受美國等國對華科技限制加大影響,中國AI硬體需求缺口或將進一步擴大,為國產AI伺服器發展提供廣闊的市場空間和機遇。 人工智慧產業鏈基礎層、技術層、應用層相互配合,共同推動人工智慧技術在各個領域的應用與發展。