美國研究人員使用相變材料(PCM)開發了具有快速原型設計和重新程式設計能力的光子積體電路(PIC)。
西雅圖華盛頓大學開發的直寫可重寫光子晶元技術使用低損耗相變材料 (PCM) 薄膜,只需一步即可直接雷射寫入完整的端到端 PIC,電路的任何部分都可以擦除和重寫,從而實現快速設計修改。
該團隊已將該技術應用於可重構網路的光互連結構、用於光計算的光子交叉陣列以及用於光訊號處理的可調諧濾波器。 將直接雷射寫入技術的可程式設計性與 PCM 相結合,為可程式設計光子網路、計算和訊號處理開闢了機會。 它還以方便且具有成本效益的方式提供快速原型設計和測試,並消除了對奈米製造設施的需求。
光子晶元是通過在 PCM 中利用兩個非易失性相(非晶態和晶體)之間的顯著折射率對比度建立的,可以使用商用海德堡 DWL 66+ 雷射寫入系統(在 405nm 和 27 nm 下工作)的雷射寫入系統。5MW)。
光子電路寫在標準氧化矽襯底上,該襯底塗有 200 nm 厚的 SiO2 層,覆蓋 330 nm Si3N3 薄膜上的 30 nm Sb2SE3 層。 SiO2 覆蓋層保護並防止 SB2SE3 層氧化。
在SB2SE3薄膜中,使用結晶相(CSB2SE3)作為高折射率核心,將非晶相(ASB2SE3)作為包層,形成波導。 這種二元相位配置能夠在 Si3N4 底層的幫助下將基本橫向電 (Te0) 光學模式限制在CSB2SE3波導上。
雷射產生的一系列矩形ASB2SE3結構,寬度範圍從1 m到200 nm,最小可實現的特徵尺寸為300 nm,明顯小於其他系統。
該團隊使用該技術構建波導、光柵、環形諧振器、耦合器、交叉點和干涉儀,以構建光子晶元。
什麼是光子晶元?
光子晶元或光子積體電路(PIC)是一種特殊型別的晶元。
與傳統的電子主導晶元不同,光子晶元是利用光子(光粒子)進行資訊處理和傳輸的器件。 在此類裝置中,資料被編碼到光子上,然後通過光纖傳輸,從而實現超高速資料傳輸。
光子晶元具有許多顯著優勢。 首先,由於光速快,光的頻率遠高於電子,光子晶元的資料傳輸速度和處理能力遠遠超過電子晶元。
其次,光子晶元的訊號傳輸損耗小,因此可以實現遠距離、大容量的資料傳輸。 此外,光子晶元的能耗低,因為光訊號的傳輸不會產生熱量。
最後,光子晶元具有良好的抗電磁干擾效能和對環境的強適應性。 光子晶元的實現並非遙不可及。 事實上,已經有不少科研機構和企業在開發這種新型晶元,部分產品已應用於光纖通訊、生物醫藥、環境監測等領域。
然而,光子晶元也面臨著一些技術挑戰,如製造精度、光電轉換效率、光訊號的調製和檢測等。 這些問題需要研究人員進一步克服,但總體而言,光子晶元的前景是樂觀的。
除了光子晶元,研究人員還在探索許多其他新型晶元,如量子晶元、奈米晶元、生物晶元等。
光模組的核心部件
在光模組廠商中,全球有一半在中國,但光模組的核心是光晶元,光晶元占光模組成本的大部分,國內光晶元企業主要集中在2在5G系列產品的生產製造方面,10G和25G中高速光晶元已逐步實現量產,而50G及以上高階光晶元的生產仍主要集中在美日企業,國內對高階光晶元的需求極度依賴進口。 像中國製造光模組一樣,但大部分高階光晶元都依賴進口,只有自主研發的矽光子晶元才用於部分光模組產品和應用領域。
光模組產業鏈也很長,涵蓋晶元(光電)、器件(無源有源)、模組成品,其中晶元技術壁壘高,可以佔大部分比例,高階產品被國外壟斷,比如據ICC資料,2021年2月光晶元在5G及以下速率的國產化率超過90%; 10G光晶元的國產化率在60%左右,一些效能要求高、難度大的10G光晶元仍需進口; 2021年25G光晶元國產化率在20%左右,但25G以上光晶元國產化率僅為5%,而且大部分是海外光晶元廠商。
光模組有兩大增長因素
從資本市場來看,近年來光模組行業出現了兩個高潮
首先是中國5G網路建設的高峰期。
2019-2020年前後,隨著中國5G牌照的發放,三大運營商大力準備建設5G網路。 由於其支出主要集中在無線網路和承載網路上,因此對前傳和中傳光模組的需求非常高。 由於當時5G網路的大規模渲染,資本市場也非常看好5G的發展,刺激了一波年度光模組概念**。
然而,自2020年下半年以來,由於5G網路建設放緩和商用推廣受阻,光模組的概念也有所下降,導致近兩年半的低迷。 然而,光模組只佔電信應用的一部分,更大的應用是在資料通訊領域。
二是ChatGPT引爆的AI新時代。
去年年底,OpenAI 推出了一種新的對話式 AI 模型 ChatGPT。 由於其高水平的創造力,它迅速走出了圈子並愈演愈烈。
年初,各種訊息逐漸傳到中國。 尤其是在Microsoft推出新版必應搜尋引擎並宣布將上線“文心一言”之後,相關話題在各大流量平台上爆發。
全球主要製造商都在與大型AI模型進行“軍備競賽”。 但在大規模模型競爭的背後,其實是一場算力的競爭。
以 OpenAI 團隊為例,他們使用了 10,000 張 NVIDIA A100 顯示卡來訓練 GPT3 模型。 訓練 GPT4 及更高階別的模型需要更多的計算能力,據說 OpenAI 擁有超過 30,000 張 A100 顯示卡。 業內人士認為,1萬張顯示卡幾乎是大型號的門檻,國內幾乎所有主要廠商都部署了2萬或3萬張顯示卡。
例如,SuperPod 架構(NVIDIA 的 AI 基礎設施解決方案)需要 140 臺 AI 伺服器; 1120 個 A100GPU; 186 臺交換機,帶 5760-8000 個收發器。
因此,一句話,對算力的需求呈指數級爆發,給光模組帶來了巨大的新增量。