今天分享AI算力系列深度研究報告:AI算力:整機將開啟新天地,擁抱算力新機遇
報告製作人:中泰**)。
報告共:37頁。
專題報告**:人工智慧學院
算力:以算力為核心,綜合能力包括算力規模、經濟效益、供需等。
算力成為公共基礎資源勢在必行,“算力無處不在”離不開算力網路的支撐。
隨著數字經濟時代的全面開放,算力正以新型生產力賦能千行百業,為經濟社會高質量發展提供更有力支撐。 然而,智慧型算力需求的爆發式增長使得高效能算力稀缺,目前算力仍存在應用邊際效益高、負擔不起、無法使用等問題。 未來,對算力的需求將增加,行業發展將繼續保持高度繁榮。
中國算力布局正處於點點滴滴、編織密集網路的階段。 我國持續優化基礎設施建設,著力打造資料中心集群,先後啟動東西方算力工程和國家超算網際網絡建設,連線全國算力資源,形成統一排程的全國綜合算力網路,讓算力成為像水電一樣“一點接入、即用即用”的公共基礎資源。 並在各種數字元素的協作中實現更大的價值。
全球數字經濟持續加速,算力產業蓬勃發展。 2024年,全球計算裝置總算力達到906eflops,增長率為47%。 算力行業蓬勃發展,預計未來五年全球算力規模將以50%以上的速度增長,到2024年全球算力裝置總算力將超過3ZFLOPS。
我國算力規模和供給水平持續增長,整合應用深度不斷擴大,產業賦能效益日益顯現。 據中國資訊通訊研究院測算,2024年我國計算裝置算力總規模將達到302臺,約佔全球總量的33%,連續兩年增速超過50%,高於全球增速。 智慧型算力需求呈爆發式增長,算力在規模中的佔比將越來越高,未來五年復合增長率為523%。
中國伺服器市場發展迅速。 IDC資料顯示,2024年中國伺服器市場規模約為273億美元,同比增長91%。2024年中國伺服器市場銷量達447家8萬台,同比增長12臺7%。
由於對AI的需求飆公升,全球整機支出向AI伺服器傾斜,通用伺服器市場進一步壓縮。 未來,隨著工業智慧型化轉型的加速、高算力基礎設施的公升級、應用場景的商業化發展,各大廠商將不斷加大AI大模型的布局,為我國伺服器行業帶來廣闊的發展空間。
中國伺服器市場帶動作用顯著,競爭格局多元化。 國內市場以浪潮、新華三、超融合為龍頭,行業集中度高,競爭格局穩定。 AIGC、雲計算等新興技術的不斷湧現,為伺服器行業帶來了新的增長點,各大廠商紛紛競相競爭。
全球資料總量和算力規模都在快速增長。 根據IDC資料,2024年全球資料領域資料量將達到103個66ZB,中國資料量將從2024年的23個增加到88ZB 到 2027 年達到 766zb,CAGR達到263%,增速有望居世界第一。 根據 IDC** 的資料,未來三年全球增加的資料將超過過去 30 年的總和,資料的爆炸式增長將成倍增加儲存、傳輸和處理資料所需的計算能力。
算力智慧型化公升級成為趨勢,智慧型算力成為算力增長的主要驅動力。 海量、複雜資料處理的需求對算力提出了更高的要求,需要更強大、更高效的計算資源來支援人工智慧應用的發展。 在此趨勢下,計算基礎設施建設加快,成為支撐數字經濟發展的“重要基礎”,對資料容量和算力的需求週期性增強。 IDC**,中國智慧型算力規模將持續快速增長,預計2024年將達到1117臺4eflops,2022-2027 年的復合年增長率為 339%。
演算法的發展和迭代帶動了對算力的需求。 在傳統的機器學習和深度學習技術中,算力作為底層基礎設施,起著至關重要的作用,不斷推動著上層技術的迭代創新。 目前,深度學習的發展已經達到了乙個高潮,深度學習、機器學習等人工智慧演算法的訓練和推理過程需要大量的計算資源,而為了實現更複雜的人工智慧任務,包括影象和語音識別、自然語言處理等,算力的提公升是必不可少的。
模型的快速演進為算力的發展提供了強大的動力。 隨著大型模型的不斷發展,其引數大小和複雜性顯著增加。 目前,超大模型的訓練需要大規模計算集群和相應的模型並行演算法框架的支援,中間算力需求巨大,使算力規模呈現出量級和指數級的上公升趨勢。
AIGC的算力需求可分為訓練算力需求和推理算力需求。 訓練和推理階段的深度學習任務需要大量的計算資源。
訓練端:根據OpenAI的測算,2024年之後,全球頂級AI模型的訓練能力需求在3-4個月內翻了一番,每年的算力增長了10倍。
在智慧型算力方面,根據 OpenAI 訓練集群模型的估計結果,ChatGPT-3 模型引數約為 1746 億,一次訓練所需的總算力約為 3,640 pf-days(每秒 1 quadrillion 計算為 3,640 天)。 2023 年引入的 GPT-4 引數數量可能擴大到 1 個8 萬億,是 GPT-3 的 10 倍,訓練算力需求上公升到 GPT-3 的 68 倍,為 250,000 架 A100 需要 90-100 天的培訓。
以Microsoft和英偉達聯合推出的威震天圖靈-NLG(MT-NLG)模型為例,該模型擁有5300億個引數,在訓練過程中消耗了4480個A100GPU,最終在自然語言處理任務中表現出優異的效能。
推理:使用經過訓練的模型進行計算,並使用輸入資料得出正確結論的過程,一般是AI技術的應用。 推理部署的算力主要取決於每個應用場景的每日資料吞吐量。
在推理端,通過openai**,推理階段的算力需求=2個模型引數的訓練和規模。 以GPT-3為例,根據e-Surfing Think Tank的估計,500個token(約350個字)產生的算力需求為175 pflops。
未來,AI伺服器的需求將從訓練側轉向推理側,推理算力需求將呈指數級發展。 隨著訓練模型的完善和成熟,模型和應用產品將逐步進入生產模式,AI伺服器處理推理工作負載的比例將增加。 IDC資料顯示,2024年,中國資料中心用於推理的伺服器市場份額已佔一半以上,達到58家5%,預計推理工作量將達到 622%。
2024年,ChatGPT將引爆新一輪人工智慧熱潮,大模型驅動的AIGC時代正式開啟。
AIGC的發展依賴於大模型,這帶動了算力需求的快速增長。
AIGC是算力開發市場的加速器。 AIGC的發展將繼續加速計算效能更高、互聯互通效能更快的計算基礎設施建設。
隨著國內外AIGC廠商加速部署千億級引數的大模型,對算力的需求將進一步增加,助推AI伺服器市場和出貨量的快速增長。
多模態拓寬了應用的邊界,推動了對計算能力的需求大幅上公升。 由於語音和影象資料的大小明顯高於文字,因此多模態大模型訓練和推理的算力要求高於單模態模型。 谷歌的具身多模態語言模型 PALM-E 共有 5620 億個引數,遠超 GPT-3根據 Patel 和 Nishball 的說法,谷歌的多模態大模型 Gemini 的計算能力高達 1E26 FLOPS,是訓練 GPT-4 所需計算能力的 5 倍。
報告共:37頁。
專題報告**:人工智慧學院