軟體和雲沒有移動,硬體,尤其是SEMI,都在崛起。 NVDA +4%、AMD +5%、MRVL +8%、威騰電子 +8%、博通 +7%(Oppenheimer、BOFA 上調目標價)、台積電 +4%、美光 +5%、超味 +14%(包含在指數中)。。除了PMI資料和美國國債,美聯儲今天還提到了人工智慧"ai could improve labor outcomes, reduce inequality”
感受來自賣方的熱情:
這些都是反光板,不得不提一下海通國際的Jeff在10天前印出來的,原來市場確實在尋找AI追趕的玩法
歸根結底,新訂單的增長速度遠快於業績確認的速度(交貨速度),導致今天的積壓(訂單在手)已經是35次。 上個季度GPU交付週期的收入確認延遲,這是上個季度的擔憂,現在對H100交付週期有利
最重要的是,該公司還向台積電AMD學習,出來提公升行業TAM到 2027 年,AI 伺服器將達到 1520 億美元(之前為 1240 億美元)。。2027年,幾顆衛星開始踏上腳步。 也有負面因素,PC市場疲軟,傳統伺服器價格壓力大,復甦要到下半年才會出現,整體毛利率(成本上公升和AI稀釋)也面臨壓力。 不過,看市場基本選擇看透,他們都在尋找滯後者,而已知的傳統弱點似乎基本是價格入股。 便宜的估值+股息又增加了20%......
花旗在業績發布會後也發來了回電,要點如下:
指引:2025財年(24CY)的指引好於預期,預計全年將大幅增長,對伺服器、傳統伺服器**的人工智慧發展勢頭持樂觀態度,下半年個人電腦和儲存將復甦。
伺服器:積壓訂單中GPU組合(H100、H200、Mi300X)及其交貨時間組合的差異將導致AI伺服器各季度的收入確認不均衡(H100確認加速,新產品確認估計受到交付的限制)。 H200 和 MI300X 在 29 億美元的訂單積壓中正在增加。 管理層希望在第一季度出貨盡可能多的H100H100 的交貨時間從第三季度的 39 周下降。
毛利率:預計2025年度毛利率將下降這是由於儲存組合比例的下降、大宗商品成本的增加、競爭加劇(PC、傳統伺服器)以及預期出貨更多的AI伺服器(AI伺服器將稀釋毛利率)。
此外,NTAP(U.S. Net Deposit)的表現超出預期,其實BEAT並不大,但股價卻是+18%,因為還提到了AI。NTAP在財報會議上重點放在 NVIDIA 的 DGX POD 中的“多個”專案上。
除了AMD傳遞的小笑話,往下看1)。年初至今,英偉達65%,AMD35%,可能正在追逐; 2)80億是否被默許還不確定,但如果推理真的要引爆,那麼潮水就會漲,太陽就會照耀。
簡而言之,市場現在正在追逐人工智慧,或者更確切地說尋找“AI新目標”的熱情極高。MS做了乙個AI**坐標系,橫軸AI營收佔%,縱軸是25年的PE倍數。 當然,如果你靜態地看,越東南越好。 如果你動態地看,每個人都會向右走,誰能保持在趨勢線下方,誰就是最好的交易。 事實上,這個坐標系的潛台詞是,AI的佔比越高,市場追逐的就越多,這將帶來更高的估值溢價。 那些低於趨勢線並遠離趨勢線的都是“潛在股票”。
目標不夠? MS給出了另一張圖表,IDC中每家公司的AI收入佔比:
上周末,The Wire 對 Jensen 的採訪在網上瘋傳,但其中乙個細節被修改了(來自讀者 Dai 的提醒),而且很微妙。 在原文中,Jensen說:“如果我必須猜測,NVIDIA今天的業務可能是70%的推理和30%的訓練。 在那之後,它似乎被 PR 修改了:
70%的詞是結論性的,再考慮上下文,不像是口誤,更像是洩密。 公示也是合理的,畢竟和財務報告披露相差太大。 而且DAI分析很合理,全年40%,如果年初很低,年底達到70%也是合理的。
ASIC的市場份額已經是純ASIC公司第一,即使與MTK、**GO、MRVL相比,也只輸給**GO; 來自最大客戶(亞馬遜)的PO繼續上公升,並且與之前相比上調,並且對這種新晶元的生命週期和需求比之前預期的要大。 客戶給出了新5nm產品的預測"too good to be true"
國內良率為50-60%,而海外為85%(但國內是中試線,做成量產線後良率會大大提高); 中國有兩個派系,乙個是大家都知道的xxxx,乙個是h+xx+xx(特意把星球放進去)。 專案定義是3,可能要到26年才能生產出產品它也可能比這更早
我從未見過任何技術像人工智慧一樣快速發展目前人工智慧的增長速度接近每六個月增長十倍(我了解計算量)。。這就是為什麼英偉達的市值如此之大,他們擁有最好的人工智慧晶元,其市值可能更高人工智慧晶元熱潮將比過去任何一次淘金熱都要大。我認為我們真的處於有史以來最大的技術革命的邊緣。
我們非常接近完全自動駕駛; 乘用車的平均使用時間約為每週10小時,但如果實施自動駕駛,每週可以使用50至60小時,這意味著乘用車的實用性將增加五倍。
他最近在日本的一次會議上說,有人告訴他,生產AI晶元需要10個晶圓廠,“他們說的不是晶圓,而是晶圓廠”,張忠謀認為10個晶圓廠太驚人了實際需求可能在幾萬片矽片到10座晶圓廠之間,比較合理(但這個範圍也很大,也就是在幾萬片晶圓之間,參考英偉達2024年的需求也可能超過10萬片晶圓)。
為什麼縮放定律是第一原則? 你只需要找到乙個滿足兩個標準的結構:它足夠通用,並且它是可擴充套件的。 一般的目的是你把所有的問題都放到這個框架裡來建模,但規模是,只要你投入足夠的計算能力,它就可以變得更好。 這是我在谷歌學到的想法:如果可以用更低的東西來解釋,就不應該在頂部過度雕刻。 我同意乙個重要的句子:如果你能用規模來解決乙個問題,就不要用新的演算法來解決它。 新演算法的最大價值在於如何使其具有可擴充套件性。 當你把自己從雕刻中解脫出來時,你可以看到更多。
長篇大論是登月的第一步因為本質足夠,所以是新的電腦記憶體。在過去的幾十年裡,舊計算機的記憶體增加了幾個數量級,新計算機也會發生同樣的事情。 它解決了當今的很多問題。例如,現在多模態架構需要分詞器,但當您有很長的無失真壓縮上下文時,就不需要分詞器了你可以把原來的。 此外,它是將新的計算正規化轉變為更普遍的基礎。 舊電腦可以代表一切,一切都可以數位化。 但是今天的新計算機並不好,沒有足夠的上下文,它們沒有那麼通用。 要成為乙個通用的世界模型,你需要乙個很長的背景。 其次,它可以個性化。 AI的核心價值是個性化互動,價值立足點是個性化AGI將比上一代推薦引擎更加個性化。 但個性化過程不是通過微調完成的,而是關於支援長上下文的。 你與機器的所有歷史都是乙個上下文,乙個定義個性化過程的上下文,它無法複製,這是乙個更直接的對話,對話會產生資訊。
將定律縮放到最後並發現它根本不起作用的概率幾乎為零。 該模型仍有很大的擴充套件空間一方面,窗戶本身的改進還有很長的路要走,會有幾個數量級。另一方面,在這個視窗中可以實現推理能力、忠實性(對原始資訊的忠實性)和遵循指令(遵循指令的能力)。如果這兩個維度都繼續改進,可以做很多事情。 也許可以遵循幾萬字的指令,指令本身會定義許多代理(代理),這是高度個性化的。
人工智慧不是我在未來一兩年內發現的 PMF,而是未來十到二十年世界將如何變化——這是兩種不同的思維方式
開源開發的方式與過去不同過去,每個人都可以為開源做出貢獻,但現在開源本身仍然是中心化的。開源的許多貢獻可能還沒有經過計算能力的驗證。 閉源中將有人才和資本的聚集最後,關閉源頭一定更好,這是一種整合(市場的整合)。 如果我今天有乙個領先的模型和開源,那可能是不合理的。 相反,落後者可能會這樣做,或者開源小模型,攪動局面,反正不開源就一文不值。
來自 GPT-35到GPT-4,解鎖很多應用; 從 GPT-4 到 GPT-45 到 GPT-5,很有可能會有更多應用程式繼續被解鎖,甚至呈指數級增長。 所謂的“場景摩爾定律”就是你可以使用的場景數量隨著時間的推移呈指數級增長。 我們需要提公升模型能力,同時尋找更多的場景,這需要這樣的平衡。 這是乙個螺旋。
可以理解為,壓縮有兩種不同的型別。 一種是壓縮原始世界,這就是**模型正在做的事情。 二是壓縮人為生成的行為,因為人類產生的行為要經過人腦,而人腦是世界上唯一能產生智慧型的東西。 你可以思考**模型正在執行第一種型別,文字模型正在執行第二種型別當然,**模型在一定程度上也包括了第二種型別。 它最終可能是乙個混合體,以建立乙個世界模型。
矽谷一直有一種爭論:乙個模型統治所有或多個專用的較小模型(乙個通用模型用於處理各種任務,或多個專門的較小模型用於處理特定任務)。,我認為是前者。
完)本文作者:Jason,**資訊平等,原標題:《AI硬體飆公升之夜》**華爾街新聞,歡迎**APP檢視更多。