AI時代,算力需求激增,高速光模組隨波逐流

Mondo 科技 更新 2024-02-27

2.光收發器行業概況

從2022年到2028年,全球光模組市場規模CAGR將達到12%,預計到2028年全球規模將超過200億美元。 根據Yole Intelligence的資料,2022年全球光模組市場規模為110億美元,預計2028年將增長至223億美元,2022年至2028年復合年增長率為12%,受大型雲服務運營商對800G高資料速率模組的高需求以及國家電信增加光纖網路容量的需求推動。

國內市場對光模組的需求量在20億至30億美元之間,約佔全球的1 4。 據lightcounting**統計,2018-2023年中國光模組部署佔全球總量的25%-35%,2024-2029年佔20%-25%,略有下降。 北美雲服務提供商有積極的計畫在人工智慧集群中部署800G,這將是未來2-3年中國份額下降的乙個主要因素。

2.1.運營商在電信市場的資本支出穩定長,支出佔比向算力網路傾斜

電信市場方面,自2019年宣布5G商用服務以來,三大電信運營商資本支出呈現平穩增長態勢,2019年資本支出總額約為2999億元,預計到2023年約為3591億元,年化復合增長率為461%。2019年是5G網路建設的元年,隨後是2020-2022年5G發展的高峰。

2019年6月6日,工業和資訊化部向三大運營商和中國廣電頒發了5G商用牌照,同年首批5G基站建成15萬個,2019-2023年平均每年新增5G基站67個540,000 臺。 在5G領域,光模組主要應用於前傳、中傳和回傳,其中前傳主要對應25G 50G光模組,中傳主要對應50G 100G光模組,回傳主要對應100G 200G 400G光模組。

三大電信運營商正在逐步加大對工業網際網絡和算力網路的投入。 2023年,中國移動預計資本支出將達到1832億元,其中算力網路支出452億元,同比增長近35%,新增雲伺服器超過24萬台,新增IDC機架超過4萬台。 中國電信預計2023年資本支出將達到990億元,工業數位化投資預計將增長40%,其中算力195億元,IDC95億元。 2022年,中國聯通算力網路佔資本支出的16%8%,公司預計2023年算力網路資本支出將達到149億元,佔總資本支出的19%4%,同比增長20%以上。

2.2.高昂的資本支出和網路架構的公升級已成為提公升資料通訊市場景氣度的核心驅動力

北美四大雲服務提供商約佔全球資本支出的85%,2019-2022年CAPEC資本支出年化復合增長率高達3077%。根據 Counterpoint Research** 的資料,北美前四大雲服務提供商 Microsoft、亞馬遜、谷歌和 Meta 將佔 2023 年全球資本支出總額的 85%。 其中,2022年整體資本支出放緩,可能歸因於疫情導致的全球經濟下滑,但自23Q2以來已逐步恢復。

全球資料規模的擴大加速了資料中心建設的投入,資料中心內部裝置需要通過網路互聯互通,這與光模組的大量需求相對應。 隨著通訊和網際網絡應用的不斷發展,個人和企業對算力和資料儲存的需求逐漸向“雲”遷移。 根據IDC的最新資料,全球資料規模將從103.在2022年66ZB,2027 年將達到 284 ZB3ZB,2022-2027年年化復合增長率將達到2236%,我們認為資料規模的增加需要更多的伺服器和交換機,而這些裝置需要資訊交換和網路互聯,這對應光模組的需求很大。

Statista估計,全球超大規模資料中心的數量已從2015年的259個增加到2021年的700個,而Synergy Research Group的最新資料顯示,到2023年,這一數字將接近900個,佔全球所有資料中心的37%。 根據 Precedence Research 的資料,全球超大規模市場規模為 8016億美元,預計2032年增至9353億美元,復合年增長率為279%。

葉脊網路架構大大增加了對光模組數量的需求,有助於光模組迭代公升級到更高的速度。 資料中心內有兩種型別的流量:1)南北向流量:資料中心外的客戶端與資料中心內的伺服器之間通訊的流量;2)東西向流量:資料中心內不同伺服器之間的通訊流量。思科 2021 年的資料顯示,東西向流量是資料中心流量的主要來源,佔流量的 85%。

傳統三層拓撲網路架構中的東西向流量必須通過匯聚層和核心層的裝置,通過許多非必要節點,導致終端使用者的響應時間變慢。 相比之下,脊柱-葉架構的扁平化設計可以將東西向流量分布在多條路徑上,更適合在東西向流量較大的場景中使用。 此外,主幹交換機和枝葉交換機之間的互連需要匹配合理的頻寬比,上行鏈路應始終比下行鏈路執行得更快,以避免埠鏈路阻塞。

2.3.AIGC帶動算力需求,“桶效應”加速高速光模組迭代公升級

2022 年 11 月 30 日,OpenAI 旗下模型 ChatGPT 的發布拉開了全球軍備競賽的序幕。 2022 年 11 月 30 日,OpenAI 發布大型語言模型 ChatGPT,CEO Sam Altman 宣布 ChatGPT 使用者在短短 5 天內突破 100 萬,到 2023 年 1 月底,ChatGPT 使用者數量突破 1 億,成為歷史上增長最快的消費者應用。 ChatGPT的崛起,導致全球眾多AI公司紛紛發布自己的模型,海外谷歌推出Palm2模型,Meta發布Llama-13B,Microsoft基於ChatGPT打造新必應; 這是中國第乙個發布文心一言的人。

以ChatGPT為例,模型公升級迭代的背後是海量資料的訓練和推理,全球對算力的需求從2012年開始迎來快速增長。 GPT-1 有 1 個模型引數和 1 個預訓練資料17 億和 5GB,到 GPT-3 已經飆公升至 1750 億和 45TB,預計未來 GTP-5 的引數數量將是 GTP-3 所需的 100 倍,計算量將是 GTP-3 的 200 400 倍。 根據OpenAI發布的《AI與計算》分析報告,自2012年以來,AI訓練應用的算力需求每3-4個月翻一番,2012年以來,AI算力增長了30多萬倍。

人工智慧的應用和發展存在“桶效應”,算力集群需要與網路互聯同步匹配,加速光模組和光晶元向高速發展。 算力的核心是AI晶元,其中GPU擅長並行和大量重複計算,在AI領域得到廣泛應用。

常見的AI晶元包括通用型(GPU、DPU)、半定製型(FPGA)和全定製型(ASIC)三種型別,其中GPU商用較為成熟; 然而,使用FPGA和ASIC架構開發的AI晶元型別很多,目前仍處於開發和探索階段。 IDC資料顯示,2022年GPU是中國AI晶元市場應用最廣泛的產品,佔市場份額的89%,達到60億美元。 計算伺服器集群之間的資料交換需要資料中心內部的網路互聯,這激發了對高速光模組的大量需求。 模型龐大的訓練任務需要乙個由大量GPU伺服器組成的算力集群來提供算力,而這些伺服器需要通過網路連線交換海量資料,這也需要更高速率的光模組來匹配。

2022年3月,英偉達推出DGX H100,對400G和800G光模組的需求有所增加。 由於組網方式不同,很難準確計算GPU和光模組使用的關係,所以我們以NVIDIA DGX H100伺服器集群為例: 1)在算力網路中,每個H100對應15 個 800G 收發器和 0 個9 x 400G 收發器; 2)在儲存網路中,每個單片h100對應125 x 400G 收發器。 假設只考慮上述兩種網路場景對光模組的要求,則每個單個h100對應15 個 800G 收發器和 2 個需要15個400G光模組,每個H100對應約20個100G光晶元。

3.封裝和材料的創新已成為光模組的未來發展方向

在算力時代,資料中心已經成為主要的能源消耗者,光模組技術的公升級不僅僅是簡單的速度翻倍,還需要解決高速帶來的功耗和成本問題。 2021年,我國資料中心耗電量為2166億千瓦時,約為三峽電站同期年發電量的10362乘以49億kWh; 2022年,我國資料中心用電量將達到2700億千瓦時,約佔全社會用電量的3%。 據《中國能源報》報道,預計到2025年這一比例將接近5%。

光模組的能耗佔資料中心交換網路能耗的40%-50%。 根據FibalMall資料,400G光模組在資料中心應用中的能耗為10-12W,800G的能耗為15-18W,未來為16T將消耗400G以上的2倍,預計最高可達20-24W; 同時,思科的資料顯示,從2010年到2022年,光引擎的能耗增加了約26倍。 顯然,光模組能耗的激增給資料中心的成本端帶來了巨大的壓力,解決其能耗問題成為當前光模組技術更新的關鍵。

3.1. lpo

LPO(Linear-Drive Pluggable Optics)採用線性驅動技術取代了傳統的DSP(Digital Signal Processing)CDR(時鐘資料恢復)晶元,可以降低功耗和成本,但以去掉DSP為代價,會導致系統誤位元速率增加,通訊距離縮短, 所以LPO技術只適用於短距離應用場景,如資料中心機櫃到交換機的連線。

傳統DSP可以解決光電電光轉換後高速訊號的失真問題,從而降低失真對系統誤位元速率的影響,但功耗高,成本高:1)在400G光模組中,7nm DSP的功耗約為4W,佔整個模組功耗的50%;2)在400G光模組中,DSP BOM的成本約佔20%-40%。LPO技術去掉了DSP,將其相關功能整合到器件側的開關晶元中,只留下具有高線性度的驅動器(驅動晶元)和TIA(跨阻放大器)對高速訊號進行一定程度的補償。

3.2. cpo

共封裝光器件(CPO)是指網路交換晶元和光模組在同一插槽上共封裝,形成晶元和模組的共封裝。 與傳統的熱插拔技術相比,CPO技術的優勢包括: 1)低時延、低功耗:由於光模組和交換晶元採用同一封裝,訊號傳輸路徑更短,可以實現更低的延遲。此外,光電共封裝技術可以降低訊號傳輸的功耗,提高整個系統的能效。 2)高頻寬:光電共封裝技術支援高速光通訊,可提供更大的資料傳輸頻寬。3)體積小:與傳統的光模組和電子晶元分離方式相比,光電共封裝技術可以實現更緊湊的尺寸,有利於高密度積體電路的應用。

3.3.矽光子學技術

矽光子學技術是一種利用現有CMOS工藝開發和整合基於矽和矽基襯底材料的光學器件的新技術。 矽光子學技術的核心概念是“光代替電”,即利用雷射束代替電子訊號傳輸資料,將光學器件和電子元件整合到乙個單獨的微晶元中,以及晶元之間的連線速度。

與傳統的分立器件解決方案相比,矽光子學技術的優勢包括: 1)高整合度:它採用半導體製造工藝,將矽光子材料和器件整合在同一矽基襯底上,形成由光調製器、探測器、無源波導器件等組成的整合光子器件。 與傳統的由磷化銦(INP)等活性材料製成的分立器件相比,矽光子模組不需要ROSA(光接收元件)和TOSA(光發射元件)封裝,因此矽光子器件的尺寸和數量更小,整合度更高。 2)成本低:與傳統分立器件相比,矽光子模組整合度更高,封裝和人工成本更低;此外,矽基材料的低成本和製造大尺寸的能力意味著矽基晶元的成本可以顯著降低。 3)相容成熟的CMOS工藝:矽光子學技術可以利用半導體的成熟工藝進行超大規模、微製造和整合。

從2022年到2028年,矽基光電晶元的年化復合增長率有望達到44%。 根據Yole的資料,2022年矽基光電晶元規模約為6800萬美元,預計2028年市場規模將增長到6億美元以上,2022年至2028年的年復合增長率為44%。

4.聚焦目標

1)光模組及上游光器件:中際旭創、天福通訊、信益盛;2)光晶元與矽光子學:元傑科技(與電子團隊共同覆蓋)、博馳科技、世嘉光子;3)交換機:中興通訊、紫光(與計算機團隊共同覆蓋)、虎電(與電子團隊共同覆蓋);4)算力排程:潤健股份、潤澤科技(與機械團隊共同負責)。

這是報告的節選,是報告的原始PDF

資訊科技-通訊產業深入研究:AI時代算力需求洶湧澎湃,高速光模組隨潮而行——天豐**[唐海清、王一紅]-20240224[第25頁]”。

報告**:價值目錄

相關問題答案

    AI算力需求激增,智慧型計算中心或將成為新的經濟引擎

    歡迎來到迅達人工智慧社群 迅樂達 com 學習一起分享人工智慧 面對人工智慧基礎設施在全球智慧型計算中心日益增長的作用,我們正在共同努力,應對計算能力需求成倍增加以及資料和模型資源稀缺的艱鉅挑戰。隨著人工智慧的深入應用,我們看到對算力和資料模型資源的需求越來越大。在此背景下,智慧型計算樞紐作為區域人...

    大模型引爆AI算力需求,青雲“下一站”。

    對於青雲來說,AI時代將是乙個新的機遇,年將帶來比過去年更大的市場需求和機遇。青雲科技總裁林遠說。在這一輪AI大模型的技術進步中,支撐人工智慧所需的算力自然成為關注的焦點。基於對AI算力需求的洞察,青雲發布了青雲AI算力服務平台 青雲AI算力雲等產品和服務。隨著大型AI模型的發展,算力的重要性日益凸...

    算力,AI時代最確定的賽道

    人工智慧熱潮沒有減弱的跡象。剛剛公布業績的Meta,在業績和指引方面均超出預期,還派發了前所未有的股息,將回購金額提高到億美元,盤後股價 在財報發布會上,公司高管表示,Meta的總體預期是,未來幾年將需要更多的投資來支援AI業務,今年的情況將得到反映。在人工智慧方面,Meta 確實做到了。為了訓練駱...

    光晶元的迅速崛起!AI算力國產替代關鍵賽道,核心領跑梳理

    光晶元如光通訊目前產業鏈的上游核心部件是AI 雲計算和G通訊在網路快速發展的帶動下,市場需求不斷增加。根據光計數 光晶元市場規模從年的約億美元增長到年的近億美元,復合年增長率約為 特別是高倍率光晶元市場受益於技術的不斷公升級,有望實現快速增長。擴充套件 借助人工智慧 雲計算和 G通訊隨著網路的廣泛應...

    光晶元的迅速崛起! AI算力國產替代關鍵賽道,核心領跑梳理

    光晶元作為光通訊產業鏈上游的核心部件,在光電訊號轉換和光訊號產生中發揮著重要作用。光晶元半導體用於公司的製造晶元電激勵源的製造工藝和方式通過電能的激發實現電光轉換。光晶元主要原料包括三苯胺類化合物磷化銦 INP 和砷化鎵 Gaas 以及鈮酸鋰 linbo 光晶元可分為主動式晶元和被動晶元兩類,活躍晶...