2023 年,我們正在見證人工智慧 (AI) 的爆炸式增長,它正在改變人們工作、生活和與技術互動的方式。 以ChatGPT為代表的生成式人工智慧,因其顯著的進步和廣泛的應用,在去年也引起了很多關注。 隨著人工智慧的不斷發展和成熟,它有可能徹底改變從醫療保健、金融和製造到交通、娛樂等廣泛的行業。 對人工智慧的巨大需求正在推動新的晶元和伺服器技術的發展,這些變化將給資料中心建設、電力需求、用水量、供電、配電和冷卻技術和架構帶來顛覆性的挑戰。 如何應對這些挑戰,將成為新的一年業界關注的話題。
施耐德電氣作為全球資料中心和行業重點應用領域基礎設施建設和數位化服務的領導者,自2018年以來連續第七年在年初發布一系列洞察,開創了對行業趨勢進行前瞻性解讀的先河,並繼續引領未來變革的方向, 為資料中心行業注入強勁的發展動力。基於深入的行業洞察和實踐,施耐德電氣致力於揭示新的一年資料中心行業將發生哪些變化,這些變化和趨勢對資料中心運營商的價值和意義,以及這些行業變化的感知和價值主張。 以下是施耐德電氣全球資料中心研究中心對 2024 年趨勢的看法。
趨勢一:智慧型計算中心將引領資料中心建設
近十年來,雲計算一直是資料中心建設發展的主要驅動力,旨在為社會提供數位化轉型所需的通用計算能力。 然而,AI的爆發帶來了對算力的巨大需求,為了滿足大型AI模型的訓練和應用推理,我們需要建設大量的智慧型計算中心。 施耐德電氣估計,目前全球智慧型計算中心的電力需求為45 GW,佔資料中心總量 57 GW 的 8%,到 2028 年,它將以 26%-36% 的復合年增長率增長,最終達到 140 GW 至 187 吉瓦,佔總裝機容量 93 吉瓦的 15%-20%。 這一增長率是傳統資料中心復合年增長率(4%-10%)的2至3倍。 算力的分配也將通過當前的集中式部署(集中式與集中式部署)進行部署95%:5%)到邊緣(50%:50%),這意味著智慧型計算中心將引領資料中心建設的趨勢。根據工信部規劃,到2025年,我國智慧型算力佔比將達到35%,年均復合增長率在30%以上。 施耐德電氣認為,與傳統資料中心相比,智慧型計算中心的建設需要在保證高能效和高可用性的前提下,具有可持續性和前瞻性,即儘量減少對環境的影響,特別是提高適應性,以滿足未來IT技術(大功率晶元和伺服器)的需求。
趨勢二:AI將帶動機櫃功率密度大幅提公升
機櫃功率密度對資料中心的設計和成本影響很大,包括供配電、製冷、IT機房的布局等,一直是資料中心比較關注的設計引數之一。 Uptime過去幾年的研究結果表明,伺服器機櫃的功率密度正在穩步但緩慢地攀公升。 機櫃的平均功率密度通常小於6千瓦,大多數運營商沒有超過20千瓦的機櫃。 造成這種趨勢的原因包括摩爾定律,該定律將晶元的熱設計功率保持在相對較低的水平(150瓦),以及高密度伺服器通常分散在不同的機櫃中以降低基礎設施要求的事實。 但AI的爆炸式增長將改變這一趨勢,施耐德電氣研究發現,用於訓練的AI機櫃的功率密度可以高達30-100千瓦(取決於晶元型別和伺服器配置)。 這種高密度的原因有很多,包括CPU熱設計功耗的快速增加,CPU是200-400瓦,GPU是400-700瓦,未來還會進一步提高; AI伺服器的功耗通常在10kW左右,由於GPU並行工作,AI伺服器需要緊湊地部署在集群中,以減少晶元和儲存之間的網路延遲。 機櫃功率密度的急劇增加將對資料中心的物理基礎設施設計構成重大挑戰。
趨勢三:資料中心正在從風冷向液冷過渡
風冷一直是資料中心IT機房冷卻的主流方式,如果設計得當,它可以支援十幾千瓦甚至更高的機櫃功率密度。 然而,隨著對AI訓練效能的不斷追求,開發人員不斷提高晶元的熱設計功耗,這些晶元的風冷已經變得不切實際。 雖然一些伺服器廠商不斷突破風冷技術的極限,重新設計晶元的散熱片,增加伺服器氣流和進出風溫差,配置40-50kW風冷AI機櫃,但這將成倍增加風扇的功耗。 例如,乙個 AI 伺服器風扇可以消耗高達 25% 的伺服器功率,但傳統伺服器的典型值僅為 8%。 施耐德電氣認為,晶元冷卻是液冷的主要驅動力,20kW機櫃的功率密度是風冷和液冷之間相對合理的分界線。 當AI機櫃的功率密度超過此值時,應考慮液冷伺服器。 與風冷相比,液體冷卻還具有許多優勢,包括提高處理器的可靠性和效能、提高能源效率、減少用水量和降低噪音水平。 目前,對於高密度AI伺服器,**廠商通常提供風冷和液冷兩種方案,但對於下一代GPU,液冷將是唯一的選擇。
趨勢四:配電安全可靠在智慧型計算中心更為重要
對於傳統資料中心來說,不同工作負載同時達到峰值的概率極低。 例如,典型的大型資料中心的峰均比為 15-2.0 或更高。 然而,在智慧型計算中心,由於AI訓練負荷缺乏變化(峰均比接近1)。0),工作負載可以在峰值功率下執行數小時、數天甚至數週。其結果是增加了大型上游斷路器跳閘的可能性,以及停機的風險。 同時,由於機櫃功率密度的增加,需要使用額定電流值較高的斷路器、柱頭櫃、小母線等。 雖然電阻較小,但可以通過的故障電流也較大,這意味著IT機房內的電弧風險也會增加,確保這方面工人的安全是必須解決的問題。 施耐德電氣建議在設計階段使用模擬軟體對電力系統進行電弧閃光風險評估,分析可能產生的故障電流,並分析可靠性,以便為特定站點設計最佳解決方案。 同時,建議如果新建資料中心IT機房的AI訓練工作量超過60-70%,則需要根據下游饋線斷路器之和確定主斷路器的尺寸,設計中不再考慮同時性因素。
趨勢五:標準化將成為液冷推進的關鍵
冷板液冷和浸沒式液冷是資料中心液冷的兩種主流方式。 選擇哪種液體冷卻方式以及如何實現快速部署一直是業界的熱門話題。 隨著越來越多的AI伺服器採用冷板液冷,冷板液冷也更加相容傳統的風冷系統,受到眾多資料中心運營商的青睞。 然而,伺服器廠商對液冷的設計方式多種多樣,快速聯結器、盲插、歧管的相容性存在諸多問題,IT與基礎設施的責任界限也模糊不清,極大地制約了液冷在資料中心的接受和推廣。 與冷板液冷相比,使用氟碳流體的浸沒式液冷不僅相對較高,而且許多碳氟化合物都是對環境有害的合成化學品,面臨著越來越多的行業監管和政策壓力。 因此,除了油基冷卻劑外,浸沒式液體冷卻的碳氟化合物流體將越來越少。 施耐德電氣建議IT廠商提供更標準化的設計解決方案,包括流體溫度、壓力、流量、裝置介面等,並提供更清晰的職責邊界。 施耐德電氣將在第一季度發布液冷***,以幫助資料中心更好地部署液冷技術。
趨勢六:資料中心將更加關注WUE
在許多地區,水資源短缺正在成為乙個嚴重的問題,了解和減少資料中心的用水量變得越來越重要。 以前,資料中心用水量不被重視的乙個主要原因是,與電力消耗相比,水的成本通常可以忽略不計,許多資料中心甚至通過消耗更多的水來提高能源效率。 然而,資料中心用水引起了當地的廣泛關注,特別是在缺水地區,那裡正在出台限制和優化資料中心用水的政策。 這包括使用WUE作為資料中心的設計指標,並採用水電雙控策略。 因此,減少用水量將是未來許多資料中心運營商關注的重點領域。 施耐德電氣通過對資料中心行業用水量的研究,認為資料中心的WUE值為03-0.45 公升千瓦時是乙個相對不錯的值。 施耐德電氣建議根據用水情況、氣候和資料中心所在的資料中心型別,在用電和用水之間找到平衡。 行業可採用絕熱蒸發、間接蒸發冷卻、液體冷卻等各種技術創新,減少直接用水量。 資料中心運營商應報告用水量,作為可持續發展目標 (SDG) 的一部分,並重點關注用電間接用水量。
趨勢七:提公升配電能力將成為智慧型計算中心的新需求
在智慧型計算中心,隨著機櫃功率密度的提高和AI機櫃的集群部署,IT機房的配電面臨額定容量小的挑戰。 例如,過去,乙個 300 kW 的配電模組可以支援數十個甚至數百個機櫃。 如今,相同的配電模組甚至無法支援最低規格的 NVIDIA DGX SuperPod AI 集群(10 個機櫃,每排 358 kW,每排 36 kW)。 配電模組尺寸太小,使用多個配電模組不僅浪費IT空間,而且變得不切實際。 與單個大容量配電模組相比,多個配電模組也會增加成本。 回到配電的本質,增加配電容量的主要手段是增加電流。 施耐德電氣建議,在設計時應選擇規格足夠高的配電模組,以實現靈活部署,以適應未來的配電需求,只要它們至少支援一整排集群即可。 例如,在額定電壓下,800 A 配電模組目前是所有三種配電型別(PDU、RPP 和母線)的標準容量大小,功率為 576 kW(降級為 461 kW)。 對於線末配電,可以使用小型母線排,從而避免了定製額定電流大於 63 A 的機櫃 PDU 的需要。 在空間允許的情況下,可以使用多個標準化機櫃 PDU 作為過渡。
趨勢八:ai賦能資料中心節能轉型
通過提供AI算力,資料中心正在推動人類社會向更可持續的方向發展,例如自動化、數位化和電氣化,使交通、製造和發電能夠減少對環境的影響。 反過來,人工智慧可以使資料中心優化其能源,以減少自身對環境的影響。 例如,利用AI和機器學習技術對資料中心的冷源系統和空調終端進行控制,通過對歷史資料的分析,實時監控資料中心的氣流分布,根據資料中心IT負荷的變化,實時匹配合適的製冷輸出。 通過自動調節精密空調和風機末端的執行模式,可實現動態按需製冷,從而減少熱點,降低機房能耗和運維成本。 施耐德電氣認為,將AI技術應用於機房空調群控系統,可以實現對機房內部環境引數的智慧型監測和控制,通過自動調整和優化提高能效和系統可靠性,從而達到節能減排的目的。 隨著AI技術的不斷普及,以及國家對資料中心節能降耗的不斷要求,AI技術在資料中心空調群控系統中將得到更多的關注和應用,無論是新建還是改造工程。
趨勢9:配電系統的占地面積將備受關注
在資料中心設計中,最大化IT裝置面積的比重,即盡可能減少輔助裝置的占地面積,一直是資料中心設計的主要訴求之一。 對於傳統資料中心,IT機房面積與配電室面積之比通常為1大約 5:1。 隨著AI驅動IT機櫃的高密度,越來越多的IT機房採用液冷方式,液冷IT機房面積與配電室面積之比將反轉為0大約6:1。 此時,配電室的占地面積將更加吸引資料中心設計人員的關注,優化配電房的占地面積也將成為行業的發展方向。 施耐德電氣認為,以更小的占地面積增加配電和電力裝置的供電能力是最有效的方法之一。 例如,減少UPS系統的占地面積,包括採用更高功率模組的模組化UPS,實現兆瓦級單櫃電源; 同時,使用鋰電池代替鉛酸電池可以使電池之間的占地面積減少40-60%。 集中部署供電和配電裝置(例如,電源橇)也可以減少配電室的占地面積; 使用緊湊的模組化配電櫃和應急電源,如聯用柴油發電機,也是一種有效的手段。
趨勢10:儲能系統在資料中心的價值日益凸顯
UPS系統在實現資料中心電能質量管理和不間斷供電方面發揮著重要作用。 由於資料中心運營商面臨著提高可持續性和財務績效的壓力,同時保持或增強供配電系統的可靠性和彈性,新的儲能和發電技術提供了新的可能性,但也對傳統的資料中心運營模式和電氣架構提出了挑戰。 分布式能源技術,如電池和燃料電池,能夠有效地產生或儲存清潔能源。 儲能系統除了提供傳統UPS系統的功能外,還可以通過在用電高峰期釋放儲存的能量來管理峰值功率需求,以實現峰值負荷的增加。 通過調峰填谷降低資料中心的電力成本,實現能源成本優化; 同時參與電網的需求響應,實現創收。 施耐德電氣認為,降低能源成本、充分利用擱淺資產、減少對柴油發電機的依賴以及保持資料中心獨立於電網的業務彈性以實現可持續資料中心的需求為資料中心採用儲能系統創造了更有效的用例和價值。 隨著鋰電池儲能系統的衰落**和電氣架構的創新,資料中心可以通過微電網系統提供更大的能源控制和自主性**; 在沒有微電網的情況下,也可以通過部署儲能系統來獲得競爭優勢。
進入2024年,資料中心行業的重心將從傳統資料中心的建設轉向智慧型計算中心的建設,關鍵是通過不斷的技術創新,實現智慧型計算中心的可持續發展,適應下一代IT技術。
上述對新興趨勢的回應來自施耐德電氣的全球資料中心研究中心,該中心成立於上世紀九十年代。 研究中心始終以“探索資料中心行業技術和發展趨勢,倡導最佳實踐”為團隊使命,通過發布通俗易懂的工具和權衡工具,幫助資料中心使用者提高可用性和優化能效,賦能資料中心可持續發展,實現資料中心商業價值最大化。 截至2023年,施耐德電氣研究中心團隊已發表文章230餘篇,年發表文章超過40萬篇; 有 30 種權衡工具,每年有超過 20,000 名使用者**使用。 所有最好的和權衡的工具都可供整個行業免費學習和使用,它們證明了施耐德電氣在推動資料中心行業發展的同時作為資料中心行業思想領袖的地位。