Meta、OpenAI和Microsoft表示,他們將在週三舉行的AMD投資者會議上使用AMD最新的AI晶元Instinct Mi300X。 此舉表明,科技界正在積極尋找昂貴的 Nvidia GPU 的替代品。
MI300X備受業界期待,畢竟“世界長期遭受英偉達之苦”,而後者的旗艦GPU不僅最貴,而且供應量也相當有限。 如果MI300X能夠大規模採用,有望降低開發AI模型的成本,並給英偉達帶來競爭壓力。
AMD表示,Mi300X基於具有顯著性能改進的新架構。 它最大的特點是它擁有 192GB 的尖端高效能記憶體,稱為 HBM3,傳輸資料速度更快,可以容納更大的 AI 模型。
Lisa Su 直接比較了 MI300X 及其使用 NVIDIA(以前的)旗艦 GPU H100 構建的系統。
在基本規格方面,Mi300X 比 H100 快 30%,記憶體頻寬高 60%,記憶體容量是 H100 的兩倍多。
當然,MI300X與NVIDIA最新推出的GPU H200相比更具對標性,雖然規格也領先,但MI300X相對於H200的優勢較小,記憶體頻寬僅比後者高出個位數,容量比後者大近40%。
蘇立峰認為:
"這種效能直接轉化為更好的使用者體驗,當您向模型提問時,您希望它回答得更快,尤其是當答案變得更加複雜時。 "AMD面臨的主要問題是,一直依賴英偉達的公司是否會投入時間和金錢來增加另一家GPU**供應商。
蘇姿丰還承認,這些公司確實需要“付出努力”來轉向AMD晶元。
AMD週三告訴投資者和合作夥伴,它已經改進了ROCM,這是與Nvidia的CUDA進行基準測試的軟體套件。 CUDA 套件一直是 AI 開發人員目前青睞 NVIDIA 的主要原因之一。
*也很重要。 AMD週三沒有透露Mi300X的定價,但它肯定比英偉達的旗艦晶元便宜,後者的每台售價約為40,000美元。 蘇姿丰表示,AMD的晶元必須比英偉達的晶元更便宜,才能說服客戶購買。
AMD還表示,它已經與一些最需要GPU的大公司簽署了Mi300X的訂單。
Meta計畫將MI300X GPU用於AI推理任務,Microsoft首席技術官Kevin Scott也表示,除了甲骨文的雲計算服務外,該公司還將在其雲計算服務Azure中部署MI300X。 OpenAI 還將在名為 Triton 的軟體產品中使用 AMD GPU
根據研究公司 Omidia 的最新報告,Meta、Microsoft 和甲骨文都是 2023 年 Nvidia H100 GPU 的重要買家。
AMD沒有給出Mi300X**的銷售資料,只預計2024年資料中心GPU總收入約為20億美元。 僅最近乙個季度,英偉達的資料中心收入就超過了140億美元,但除了GPU之外,還包括其他晶元。
展望未來,AMD認為AI GPU的市場規模將攀公升至4000億美元,比之前翻一番。 由此可見,人們對高階AI晶元的期望有多高,多麼令人垂涎。
蘇立峰也坦言,AMD不需要打敗英偉達就能在市場上取得好成績。 言下之意是,第二名也可以過得很好。
她在談到AI晶元市場時說
“我認為很明顯,英偉達現在絕對是市場領導者,我們相信到2024年,這個市場的規模可能會達到4000億美元以上。 我們可以分一杯羹。 ”