今日,AMD公布了2023年第四季度和全年財報,第四季度營收為62億美元,全年營收為227億美元,這得益於AMD Instinct GPU和EPYC™ CPU的季度銷量創下歷史新高,以及AMD Ryzen™處理器銷量增長。
人工智慧領域的快速發展超出了AMD的預期,並將之前確定的資料中心AI GPU產品2024年收入從20億美元調整為35億美元。 在大機型領域,AMD對其MI300X資料中心GPU產品充滿希望,並表示也將有信心繼續在CPU市場獲得市場份額。 今年晚些時候,將推出一款採用全新 ZEN 5 架構的產品。
資料中心業務強勁增長,收入創歷史新高
AMD在第四季度實現了62億美元的收入,同比增長10%,主要來自資料中心和客戶端業務,這兩項業務都實現了兩位數的同比增長。 然而,由於遊戲業務的衝擊,年營業額為227億美元,同比下降4%。
在人工智慧浪潮的推動下,AMD的資料中心業務在第四季度強勁增長。 本季度營收達到創紀錄的 23 億美元,同比增長 38%,環比增長 43%。 2023 年,AMD 資料中心事業部的收入為 65 億美元,與 2022 年相比增長 7%,在 AMD Instinct GPU 和 AMD EPYC CPU 強勁增長的推動下,也實現了創紀錄的年度增長。
AMD首席執行官蘇姿丰在財報發布會上表示,儘管雲業務市場整體需求環境依然疲軟,但隨著北美超大規模雲服務廠商逐步部署第4代EPYC處理器,AMD的伺服器CPU營收將逐年增加。 第四季度包括亞馬遜、阿里巴巴、谷歌、Microsoft和甲骨文等供應商,這些供應商將部署超過 55 個由 AMD 提供支援的 AI、HPC 和通用雲例項。 2023 年全年,部署了 800 多個基於 EPYC(霄龍)CPU 的公有雲例項。 預計這一數字將在 2024 年繼續增長。
目前,AMD 正在推動其 EPYC 伺服器 CPU 在金融、能源、汽車、零售、科技和製藥公司的擴充套件,在效能和功耗方面具有吞吐量,用於訓練和推理 70 億個 LLAMA 大型模型。 AMD表示,今年下半年推出的第五代EPYC(霄龍)CPU“都靈”將進一步提公升AMD在資料中心業務的領導地位。
目前**的一些洩漏表明,“都靈”CPU採用了新一代Zen5架構,增加了新的記憶體擴充套件功能和更高的核心。 與基於 Zen4 的 *** 系列處理器相比,“都靈”的核心數量增加了 33%,L3 快取增加了 33%。
第四季度AMD客戶營收為15億美元,同比增長62%,這得益於銳龍7000系列CPU的銷售增長。 然而,全年由於PC市場的下滑,客戶部門的營業額為47億美元,與2022年相比下降了25%。
本季度遊戲營收為 14 億美元,同比下降 17%,環比下降 9%。 2023 年,遊戲部門的收入為 62 億美元,與 2022 年相比下降 9%,主要是由於半定製產品的銷售額下降。
AMD 嵌入式本季度營收為 11 億美元,同比下降 24%,環比下降 15%,原因是客戶降低了庫存水平。 2023 年,嵌入式收入達到 53 億美元,與 2022 年相比增長 17%,這得益於賽靈思收購帶來的全年收入。
在12月初舉辦的“推進AI”盛會上,AMD展示了AI和AMD解決方案從資料中心到PC帶來的市場空間,並發布了兩款AI晶元旗艦,Instinct MI300X和MI300A,以及引領AI PC時代的銳龍8040系列處理器。
據蘇姿丰介紹,Q4AMD的資料中心GPU業務大幅加速,營收超過預期的4億美元,這得益於Mi300X在客戶中的快速採用,並得到了大型雲服務提供商、OEM和眾多領先的AI開發商的支援。 基於目前客戶對MI300系列客戶端的強烈需求和產品的市場推出,未來發展前景看好。
目前,AMD將人工智慧視為其頭號戰略重點,並且有許多市場機會,其中最大的機會來自資料中心。 MI300 系列已成為 AMD 歷史上增長最快的產品。 而2024年將是人工智慧進一步集中實施的一年。 AMD預計,CPU、GPU、FPGA等AI資料中心業務的市場規模將從2023年的450億美元增長到2027年的4000億美元,復合年增長率超過50%。
AI領域的快速發展也導致AMD調整了營收預測,此前預計2024年資料中心AI GPU產品營收將超過20億美元。 AMD在會上表示,這一數字將根據市場需求調整為35億美元。
GPU仍是大型機型的首選,CPU的份額也在不斷擴大
在本次財報發布會上,AMD最新資料中心GPU MI300X成為分析師最關注的話題。 Mi300X 由台積電製造,其第三代 cDNA 架構整合了多達 1530 億個電晶體,使其成為目前最先進的資料中心 GPU 晶元。
蘇立峰表示,隨著越來越多的企業開展AI相關業務,開發大型模型,對推理的需求將超過訓練,這一趨勢將成為未來幾年AI領域的乙個顯著特徵,在相關硬體支援方面,考慮到不同型別的模型,從小模型到模型微調, 對於大型語言模型,對於不同的用例,需要不同的硬體,但從AMD的角度來看,GPU仍然是大型語言模型訓練和推理的首選計算單元。
蘇立峰表示,目前MI300系列展現出強大的牽引力,AMD依託其獨特的小晶元技術,讓晶元產品既可以同時擁有APU版本,又可以同時擁有GPU版本,從而獲得記憶體頻寬和容量的優勢。
此外,AMD正在積極推動該生態系統以加強GPU生態系統,包括發布其開源ROCM 6的最新版本,這是乙個針對生成式AI優化的軟體堆疊。 AMD 還擴充套件了對 ROCM 軟體的支援,包括 AMD Radeon RX 7900 XT GPU,為 AI 開發人員和研究人員提供了更多使用 AMD 硬體進行 AI 工作的選擇。
蘇姿丰表示,通過與頂級雲服務商和主機廠的合作,ROCM 6一直在不斷優化,目前進展順利。 同時,也得到了開源社群的良好支援,包括與Hugging Face、Triton等廠商的合作,承載著AMD對進一步拓展GPU市場的期待。
Su 表示,與競爭對手相比,MI300 系列具有更大的頻寬和記憶體容量,這意味著具有數百億個引數的大型語言模型的 GPU 使用量更少,總體擁有成本更高。 在MI300方面,AMD認為路線圖競爭非常激烈,預計今年每個季度的收入都會增加,隨著產能等問題的改善,下半年的增長勢頭將更加明顯。
儘管 GPU 在處理大型模型方面具有優勢,但它們並不是唯一的選擇。 在去年的“Advancing AI”活動上,極微記者看到了使用AMD EPYC 9654處理器執行LLAMA 2大型語言模型的演示,與競爭對手Xeon Platinum 8480相比,處理速度提公升了36%。 這意味著,在某些場景下,依靠CPU提供的AI算力也可以處理大型模型,而不是僅僅依靠GPU,這對於GPU資源較少的企業來說非常有吸引力,也可以帶來成本節約。
在資料中心CPU方面,AMD認為,每一代EPYC(霄龍)的推出都在幫助AMD擴大市場份額,去年Q4的營收創下了歷史新高。 目前,Zen4架構與GENOA、Bergamo、Siena的應用顯示出良好的競爭優勢,而進入Zen5的“都靈”後,AMD仍將保持繼續樂觀地獲得市場份額的預期。 此外,蘇姿丰表示,2024年資料中心CPU的業務增長取決於巨集觀和整體資本支出的趨勢,而從AMD的角度來看,基於節能等考量,可以看出一些大客戶正在進入他們的基礎設施產品更新週期,這將為AMD帶來更多的機會。