今天,第八屆未來晶元論壇在北京舉行。 未來晶元論壇是由清華大學積體電路學院、北京積體電路高精尖創新中心主辦的重要年度學術會議,為該領域的高校、研究機構和企業搭建乙個跨界、跨學科的思想交流平台。 國際歐亞科學院院士、清華大學魏少軍教授談到了自己對未來晶元的看法。
高效能計算已進入E級時代,去年美國能源部發布了全球首颱E級計算超級計算機。 E級計算是乙個非常重要的里程碑,能夠完成每秒100億exaflops。 超級計算機發布後,美國科學顧問委員會立即宣布,美國高效能計算的下乙個目標是Z級計算。 與 E 級計算相比,Z 級計算速度快 1,000 倍。
業界對更高計算速度的追求永無止境。 並且資料總量正在增加,到 2024 年,資料總量將達到 100 ZB。 資料量急劇增長。 尤其是人工智慧成長之後,資料量更大,所以Z級計算成為行業必須解決的問題。
魏少軍指出:“僅僅依靠技術進步,幾乎不可能實現更高效能的計算。 “原因很簡單,按照美國尖端計算機使用的工藝,比如現在的6nm工藝,功耗高達211 MW,面積為 680 平方公尺。 半導體工藝不斷向前發展,有5nm、4nm、3nm。 如果採用3nm工藝實現Z級計算,目前功耗高達8000兆瓦,這意味著一小時用電800萬千瓦,相當於每小時電費約400萬元。 在成本方面,使用 3nm 工藝實現 Z 級計算將花費 6000 億美元。 雖然工藝的進展會帶來成本的降低,但總的來說,直接成本不會下降太多,覆蓋數十萬平方公尺的面積,這也會帶來巨大的延誤。 因此,僅僅通過工藝進步幾乎不可能實現更高效能的計算。
目前,計算晶元的計算資源在整個晶元資源中所佔的比例非常低,不到01%,利用率較低,但資料傳輸的能耗非常高,例如GPU的能耗非常高,超過90%。 基於這樣的基本特性,要想在目前的計算機制和計算晶元的基礎上完成下一代計算是非常困難的。
此外,對算力的要求達到了無與倫比的水平,人工智慧的蓬勃發展是眾所周知的,目前人工智慧的習分為兩大類,一類稱為類腦計算,另一類稱為深度學習。 這兩類涉及的三個基本要素包括演算法、資料和計算能力。 其中,算力在人工智慧中發揮了真正的推動作用。
目前的人工智慧與預期相去甚遠。 一方面,演算法和人類識別是不一樣的,現在要求人工智慧能夠適應不同的應用。 另一方面,人工智慧的實現過程現在更加“暴力”。 例如,在 2014 年實現乙個簡單模型需要每秒約 196 億次操作,並同時處理 1擁有38億個引數,這樣的高密度計算和高密度儲存也給當今的晶元帶來了巨大的挑戰。 魏少軍說:“對於計算架構來說,已經進入了'**時代'。 到目前為止,如果我們只遵循舊的傳統,就不可能創新計算架構。 ”
未來,能夠提供支援的超級計算,基本需要投資不到100億元,功耗不到100兆瓦,占地數萬平方公尺甚至10000平方公尺。 在這樣的條件下,對晶元、硬體和軟體提出了新的潛在要求。
智慧型擴充套件了我們的認知。 以計算機、網路、電信、光電子、積體電路技術為主要內容的資訊革命,實現了人類感官能力的延伸和放大。 資訊科技將與人工智慧技術和新材料工程攜手並進,將資訊科技推向新的高度,實現人腦能力的延伸和放大。 以機械化、電氣化、自動化為主要內容的工業革命解放了人的雙手,為人類提供了巨大的能量,實現了人類體能的延伸和放大。
自2024年第一台電子計算機問世以來,它經歷了三次智慧型浪潮。 2024年,日本第五代計算機被用作標誌,這是第一次智慧型化浪潮。 到2024年,研究範圍不斷縮小,使用演算法習機器學習進行分類和識別。 現在,谷歌的 DeepMind 遊戲比人類職業遊戲玩家好 10 倍。 可以看出,人工智慧的發展在很多方面都超越了人類。
為什麼會這樣?加拿大神經科學家做出了重要貢獻。 在他的啟發下,在開發了類腦計算和深度學習習之後,可以使用深度神經網路進行訓練,雖然有點暴力,但可以取得不錯的效果。
人工智慧晶元主流架構從AI晶元0開始5 一直到 AI 晶元 17. 從雲 AI 向邊緣 AI 演進。
魏少軍說:“算力是人工智慧發展的充分條件,算力是靠晶元來實現的,所以晶元缺一不可,後來專門針對人工智慧的晶元出現了。 “乙個應用就是一種演算法,n個應用需要n個晶元,為了解決能夠在乙個晶元上實現不同應用的問題,出現了一種基於靈活性的可重構方法。 在處理不同演算法的過程中,今天的人工智慧通過計算能力和通用性的提高得到了進一步的提公升。
當今的行業設想的架構更多地與計算機架構有關,可能需要探索新的技術實現。 但就沒有必要去想一種矽基半導體材料了,它可以支援海量輸入和海量輸出,可能具有基本的加權和啟用函式功能,並採用儲存和計算一體化,超低延遲、超低功耗、極低成本,也可以使用目前的CMOS工藝製造,未來可以實現三維整合。 這是現在必須考慮的問題,如果我們能夠突破這樣的人工智慧新技術,它可能會開闢一條新的道路。
魏少軍也在思考,大模型是晶元不可缺少的,還是大模型會不會對晶元產生負面影響。 他做了乙個實驗,在聊天GPT上問“為什麼林黛玉要三打白骨精”。 Chat GPT 4 和 Chat GPT 3 給出的答案完全不同。 Chat GPT 4 沒有胡說八道,而是提供了乙個更合乎邏輯的故事。
然而,ChatGPT在大量資料上進行訓練,並開始增長其能力,這意味著它自身的創造能力非常有限。 人們之所以認為Chat GPT有很多新奇的想法,是因為它聚集了一群人的智慧。 事實上,Chat GPT 並不具有創造性,它更多的是通過資料進行訓練。 在翻譯與它的對話時,它的邏輯關係是不對的,其實Chat GPT並沒有想象中的那麼聰明。
回過頭來看,大型模型對晶元設計有幫助嗎?許多人認為EDA行業是利用大模型設計的最佳方式。 魏少軍表示,EDA行業有兩個部分可以使用大模型,乙個是EDA工具,另乙個是設計服務,即大模型和某些工具的結合來產生結果。 因此,對於這個問題,魏少軍表示,大模型對晶元設計肯定有幫助,但值得思考的是,它有多大幫助。
三維積體電路最近慢慢開始公升溫,摩爾定律一直在發展,在發展過程中密度也越來越高。 現在5nm工藝可以整合在一平方公釐中約11 億個電晶體,即 2,800 個邏輯門。 我們的整合能力已經大於可以實現的晶元。
基本器件在不斷發展,從45nm、32nm到5nm、3nm,從hight-k到finfet,finfet可以用到7nm,再用3nm工藝到GAA。 GAA的壽命很短,只能使用一兩代,再往前走還誰也不知道能不能進步。 雖然目前提出了二維器件和分子器件,但這是否可行以及成本是否可維持仍然是乙個問題。
目前,小晶元和3D封裝也被提出。 從某種意義上說,這兩種方法都是廣義上的整合,而不是傳統的單晶元整合。 魏少軍表示,從長遠來看,這種做法沒有問題,甚至會帶來更重要的優勢,比如降低成本。 沒有必要使用所有最先進的工藝,開發和上市時間會更短。
在3nm發展之後,也可以考慮將電晶體垂直放置。 現在3D NAND已經做到了這一點,長江儲存通過使用堆疊技術使3D NAND變得非常高。
另一方面,如果能夠形成一種新的融合和新的融合,它不僅將解決計算和儲存的問題,而且將實現三維積體電路的發展。
總而言之,計算無處不在。 高效能計算是未來發展的戰略高地,也是大國競爭的焦點。 如今的計算架構和積體電路技術已經無法支撐到ZETTA級別的高效能計算,迫切需要通過架構創新來尋求突破。
智慧型化是大勢所趨,人工智慧的發展有賴於晶元技術的進步。 如今的晶元技術已經不能滿足人工智慧技術快速發展的需要亟需從基礎部件入手,找到突破口。
大模型的到來,拓寬了人們的視野,給了一些新的發展方向。 很多人對大型輔助晶元的設計抱有強烈的期望。 今天,我們無法判斷大模型對晶元設計的具體幫助,但是我們可以從大模型的基本原理做一些判斷,下面進行對比客觀而清醒地看待大模型在積體電路晶元設計中的作用。
積體電路的本質在於“整合”。 在繫泊發展的背景下,是時候開始探索 3D 整合的路徑和方法了。
本文由Semiconductor Industry Vertical(ID:icViews)根據清華大學魏少軍教授在第八屆未來晶元論壇上的演講整理而成。
免責宣告:本文由原作者創作。 文章內容為個人觀點,我們僅分享與討論,並不代表我們同意或同意,如有異議,請聯絡後台。