本報記者 秦瀟 北京報道
過去一年,ChatGPT引爆的AI浪潮愈演愈烈,英偉達(NASDAQ: NVDA)作為這波浪潮背後最大的“賣鍬”者,其GPU晶元被炒得高出數倍**,但市場依舊難以找到一張卡,英偉達賺得盆滿缽滿。
英偉達不會永遠壟斷大規模訓練和推理晶元市場。 特斯拉首席執行官埃隆·馬斯克(Elon Musk)曾說過。 英特爾首席執行官亨利·基辛格(Henry Gelsinger)也透露:“整個行業都在推動減少CUDA(英偉達推出的計算平台)的市場。 ”
隨著人工智慧熱潮持續公升溫,傳統巨頭和行業新貴紛紛向英偉達打造的AI晶元“護城河”發起攻擊。 一方面,英特爾、AMD等傳統巨頭正在推進新一輪AI晶元研發計畫; 另一方面,以Groq為代表的創業公司也在積極推進晶元的自主研發,還有日本軟銀集團創始人孫正義、OpenAI想要帶來數千億甚至萬億美元進軍遊戲,AI晶元戰場瞬間硝煙瀰漫。
重金芯
近日,OpenAI首席執行官山姆·阿爾特曼(Sam Altman)計畫籌集高達7萬億美元來建立乙個新的晶元帝國,該帝國希望建立乙個新的晶元生態系統,將製造商、商家和使用者聚集在一起,以滿足全球人工智慧需求。
事實上,在過去很長一段時間裡,奧特曼都曾公開抱怨過英偉達GPU顯示卡的稀缺性。 OpenAI也一直關注AI晶元的供需。 根據花旗研究分析師克里斯多福·丹尼利(Christopher Danely)在2023年7月發布的乙份報告,英偉達在AI訓練領域佔據了“至少90%”的市場份額,這也對OpenAI造成了限制。 2023年10月,有訊息稱,OpenAI計畫開發自己的AI晶元已經有一段時間了,甚至已經開始評估潛在的收購目標。
雖然大多數人早就期待OpenAI自主研發的AI晶元,但7萬億美元的融資金額仍然驚人,因為這個金額相當於2023年全球半導體行業總收入的14倍。 根據 Gartner** 的資料,2023 年全球半導體行業總收入為 5330 億美元。
因此,有業內人士調侃,為什麼7萬億美元不直接收購英偉達。 截至 2024 年 2 月 22 日,英偉達的市值約為 17萬億美元。
對此,英偉達創始人兼首席執行官黃仁勳略帶嘲諷地表示:“(7萬億美元)顯然可以買下所有的GPU。 然而,計算機體系結構在不斷發展。 ”
比起奧特曼“浮誇”的7萬億美元投資計畫,孫正義的1000億美元造芯計畫似乎要現實得多。
據悉,這項代號為“伊邪那岐”的計畫計畫在該專案上投資300億美元,而額外的700億美元可能來自中東機構。 孫正義希望新公司能夠補充軟銀半導體設計公司Arm的業務,並建立乙個新的人工智慧晶元巨頭來與英偉達競爭。 然而,軟銀集團沒有透露專案資金**和具體用途。 然而,值得注意的是,孫正義和阿爾特曼已經討論了與建立半導體業務和籌款相關的事宜。
在天使投資人、人工智慧專家郭濤看來,無論是1000億美元還是7萬億美元,要想在短時間內實現AI晶元的“自由”,需要解決以下問題:一是AI晶元的研發需要大量的資金和人力投入, 而且技術難度很大,需要相當長的研發週期;其次,除了晶元本身,還需要考慮配套軟硬體等產業鏈的建設,這也是乙個長期的過程; 最後,即使成功開發出高效能的AI晶元,也需要得到市場的接受和認可,這需要時間和市場的教育。
據業內人士介紹,一顆晶元從專案審批到量產至少需要兩年時間,而晶圓代工廠投入生產則需要3-5年時間。
暴發戶走紅
就在業界還在爭論孫正義1000億美元“腳踏實地”和奧特曼7萬億美元“仰望星空”的時候,人工智慧晶元公司GROQ一夜爆紅,其大規模模型推理晶元LPU的推理速度比英偉達GPU高10倍,成本僅為1 10;執行大模型的生成速率接近每秒 500 個代幣,碾壓 ChatGPT-35 大約40個令牌,以秒為單位。
據悉,Groq成立於2016年,定位為一家人工智慧解決方案公司。 值得一提的是,Groq 的創始團隊中有 8 人來自谷歌早期的 TPU 核心設計團隊,當時只有 10 人。 例如,GroQ的創始人兼CEO喬納森·羅斯(Jonathan Ross)設計並實現了原始TPU晶元的核心部件,他完成了TPU20%的研發工作。
根據Groq官網介紹,LPU是一款專為AI推理而設計的晶元。 驅動主流大模型的GPU是專為具有數百個核心的圖形渲染而設計的並行處理器,而LPU架構不同於GPU使用的SIMD(單指令多資料),這使得晶元能夠更高效地利用每個時鐘週期,確保一致的延遲和吞吐量,也減少了對複雜排程硬體的需求。
郭濤解釋說,LPU是針對線性代數運算優化的處理單元,是深度學習和AI模型中的核心計算任務。 與傳統 GPU 相比,LPU 可能具有特定的架構優化,可以更高效地執行矩陣運算和向量計算,這是大型語言模型 (LLM) 和其他深度學習模型的關鍵操作。 GPU 最初設計用於處理圖形和影象,但它們擅長並行處理大量資料,這使其成為深度學習任務的理想選擇。 GPU 具有大量可以同時處理多個任務的核心,但它們在執行某些型別的計算時可能不如專門為這些操作設計的 ASIC 晶元那樣高效。
GroQ 創始人兼 CEO 喬納森·羅斯 (Jonathan Ross) 曾表示,在大型模型推理場景中,GroQ LPU 晶元比 NVIDIA GPU 快 10 倍,但功耗僅為後者的十分之一。 並且他還強調,GROQ的晶元,由於技術路徑不同,在**方面比英偉達更充足,不會被台積電或SK海力士等**企業卡住。
不過,並不是每個人都同意格羅克的觀點。 Facebook前AI科學家、阿里巴巴科技前副總裁賈揚青在推特上做了乙個計算,因為Groq記憶體容量只有230MB,而執行LLAMA-270B機型時,需要305張Groq卡,而H100只需要8張卡。 從目前的角度來看,這意味著在相同的吞吐量下,Groq 的硬體成本是 H100 的 40 倍,能源成本是 H100 的 10 倍。
不僅是GroQ,其他AI晶元新貴也在盯上英偉達。 據了解,全球有超過18家用於AI大模型訓練和推理的晶元設計創業公司,包括Cerebras、Graphcore、Bichen Technology、Moore Threads、D-Matrix等,總融資額超過60億美元,公司整體估值總計超過250億美元(約合1792元)。95億元)。
穩坐釣魚台
山雨即將來臨,風中樓滿“,英偉達依舊”穩坐釣魚台”。 儘管英偉達面臨富貴和暴發戶的前後圍攻,但行業要真正擺脫英偉達並不容易。 上述業內人士告訴記者:“目前國產英偉達高階AI晶元依舊供不應求,就連之前大家嗤之以鼻的閹割H20系列,也極為火爆。 ”
這可以從英偉達最新的財報中看出。 2月22日,英偉達公布截至2024年1月28日的2024財年業績報告,英偉達全年營收創歷史新高609億美元,同比增長126%。 其中,2024財年第四季度,公司營收也創下歷史新高,達到創紀錄的221億美元,同比增長265%,資料中心業務營收184億美元,同比增長409%,環比增長27%。
英偉達表示,在2024財年第四季度,資料中心的增長是由不同行業、用例和地區的生成式人工智慧和大型語言模型的訓練和推理推動的。 資料中心平台的多功能性和領先效能為許多用例提供了高投資回報,包括 AI 訓練和推理、資料處理以及各種 CUDA 加速工作負載。 “我們估計,去年資料中心收入的約40%來自人工智慧推理。 ”
英偉達首席財務官科萊特·克雷斯(Colette Kress)在財報發布會上表示,市場對公司下一代產品的需求遠遠超過供應水平,尤其是該公司的新一代晶元B100,預計將於今年晚些時候出貨。 “構建和部署人工智慧解決方案幾乎觸及了每個行業,”他說,資料中心基礎設施的規模預計將在五年內翻一番。
“加速計算和生成式人工智慧已經達到了乙個臨界點,”黃仁勳補充道。 全球公司、行業和國家的需求正在激增。 ”
黃仁勳不同意封鎖是否會影響英偉達市場份額的問題,他說:“從根本上說,我們認為2025年及以後持續增長的條件將保持非常好。 由於生成式 AI 和整個行業從 CPU 到 GPU 的轉變,對 Nvidia GPU 的需求將保持高位。 ”
不過,黃也表示,雖然情況正在好轉,但仍存在短缺,限制措施將持續一整年。 隨著整個行業對生成式人工智慧和計算硬體的需求從CPU和NVIDIA製造的加速器轉移,對該公司GPU的需求將保持高位。