(報告製作人:國海**、陳夢柱、尹瑞、盧瑞琪)
作為終端,AI PC手機可以解決資料安全、時延等問題,與雲端相比
AI PC手機作為端端大模型解決方案,可以幫助解決資料安全、私隱洩露等問題。 對於個人使用者,可以通過訪問本地資料來形成數字孿生,大模型成為使用者的個性化助手對於企業使用者,可以通過公司內網訪問企業資料庫,實現智慧型協同辦公。 這意味著,為了獲得行業模型,企業必須將關鍵資產——資料上傳到雲端,而一旦訓練好的模型被整個行業共享,就意味著在一定程度上消除了企業的競爭壁壘,從而產生了企業在資料牆中訓練特殊模型的需求, AI PC手機應運而生。在大多數應用場景中,使用者對推理的時效性要求很高,在雲端進行推理後再將結果傳回終端和邊緣,不可避免地會因為物理距離而出現延遲。
作為一種去中心化的服務模式,AI PC手機可以幫助雲端分擔算力成本
在裝置側和邊緣部署大型模型,可能會帶來市場對公有雲、私有雲和本地資料中心的需求,以及雲、裝置和邊緣的算力平衡。 過去,市場對算力的關注多集中在雲服務商和大模型訓練階段,但雲算力相對有限,難以滿足高峰期所有使用者的推理需求。 通過智慧型終端(如AI PC、手機)和邊緣裝置分擔雲的算力成本,可以平衡雲、裝置和邊緣對算力的需求。
基於滲透率的 AI PC 出貨量和增量收入空間的衡量
根據我們對基於滲透率的 AI PC 出貨量的分析,Canalys 預計 PC 出貨量將達到 267億台,我們參考這個資料來假設PC出貨量的場景,即24/2.6/2.8/3.00億單位;同樣,在七種不同場景下,假設 AI PC 滲透率為 5%、10%、20%、30%、40%、50% 和 60%。 根據測算,AI PC出貨量範圍為012~1.80 億台。 假設AI PC漲價水平,AI PC漲價1000元和1500元兩種不同情景下的增量市場空間分別為120180億元和180270億元。
GPU 歷史:它誕生於專業化需求,作為輔助處理器執行平行計算任務
隨著工藝的發展,GPU 在個人 PC 和移動裝置上越來越受歡迎,即使效能呈指數級增長,獨立顯示卡的勢頭也逐漸增強。
NPU:誕生於神經網路計算的需求,與GPU相比,兼顧了特異性和能耗
NPU(神經網路處理單元)可以在電路層模擬人體神經元和突觸,利用深度學習指令集直接處理大規模神經元和突觸,用一條指令完成一組神經元的處理。 相較於CPU和GPU的馮·諾依曼結構,NPU通過突觸加權將儲存和計算融為一體,從而提高了執行效率。 NPU是ASIC晶元的一種,目前主要應用於深度學習、機器學習等人工智慧任務。
驍龍8 Gen3加速大模型在手機上的執行,驍龍X Elite助力高通進入AI PC賽道
高通在2024年驍龍技術峰會上發布了面向AI手機的驍龍8 Gen3和面向AI PC的驍龍X Elite,率先成為同時搶占生成式AI應用兩大端側賽道的晶元廠商。 就手機端而言,搭載驍龍8 Gen3的手機執行穩定的Diffusion機型,只有06秒本地生成一張圖片,與驍龍8 Gen2的15秒相比,大大優化了移動裝置上生成式AI的推理速度在PC端,高通率先推出了驍龍X Elite平台,不僅拓展了生成式AI應用的廣度,也是高通進軍PC市場的重要一步。
搭載NPU的PC已經成為AI PC時代開啟的重要標誌,Windows系統的迭代或將帶來一波換代潮
NPU作為AI相關任務的特殊引擎,已經成為PC的核心部件之一,開啟了AIGC在裝置端落地的可能性,是AI時代PC產品的重要創新。 NPU 的能耗比比 GPU 更好,這意味著隨著 NPU 在 PC 上的普及,與 GPU 的分工可能會變得更加清晰。 GPU最初被用作影象處理的專用晶元,也常用於深度學習相關領域,矩陣乘法的平行計算能力使GPU成為NPU之前AI模型訓練和推理所依賴的重要硬體單元。 隨著 Transformer 成為 LLM 的主流架構,並統一了 CV 和 NLP 兩個研究分支,神經網路已成為構建 AI 模型的基本單元,而 NPU 作為張量處理器可以在更短的時間內完成大規模神經網路計算任務,因此它是比 GPU 更適合 AI 相關任務的加速引擎。 NPU作為裝置端的重要基礎設施之一,將為PC承載大模型提供前提條件,其普及標誌著AI PC時代的到來。
為了支援裝置側高規格大模型的執行,可以對AI PC的散熱模組進行重構
散熱能力是高算力晶元的一大瓶頸,隨著搭載在AI PC和AI手機上的型號規格的不斷完善,NPU效能釋放可能會變得更加激進。 從資料中心的角度來看,功耗和散熱是關鍵痛點,如何在晶元有限的體積內準確計算並平滑放出高整合度、高能量密度產生的熱值和熱效應,成為多源異構晶元3D封裝中最具挑戰性的問題。 目前,在消費電子終端和手機方面,不鏽鋼VC均熱板已逐漸取代銅VC均熱板成為散熱的主力軍PC的散熱方案一般以組合的形式呈現,散熱模組從結構上主要包括散熱底座、熱管、散熱片、散熱風扇等物體。
大模型在端側實現,或讓AI PC手機廠商成為這種服務模式下的流量入口
終端側大模型落地的主要受益者包括硬體(主要是NPU)設計廠商、大模型廠商、終端裝置(AI PC手機)廠商,其中終端裝置廠商作為C端使用者的唯一直接角色,可能成為這一服務模式的流量入口。
聯想集團:率先推出首款AI PC概念機,預計2024年下半年上市
2024年10月,聯想集團在預計將於2024年下半年推出的第九屆聯想創新技術大會上展示了其人工智慧個人電腦(AI PC)產品。 據聯想官網介紹,其AI PC能夠建立個性化的本地知識庫,並通過模型壓縮技術執行單個大模型,實現使用者與人工智慧的自然互動。
聯想集團:推出AI手機和AI雙胞胎,為個人和企業使用者賦能的功能性產品
就個人使用者而言,AI Twin被定義為使用者在數字世界的延伸,本質上是個人基於本地知識庫生成的專有大模型,可以理解使用者的思維方式並最大程度給出解決方案。 由於AI孿生只會儲存在本地化的裝置或家庭伺服器上,個人資料不會共享或上傳到公有雲平台,因此可以有效保護使用者的個人私隱和資料安全企業級AI孿生覆蓋了一系列企業級AI應用,可以連線企業內部的各種智慧型裝置、邊緣和私有雲,鏈結各種企業級軟體,對各類資訊進行綜合分析,並給出最優建議。 例如,企業級 AI 孿生可以考慮公司的差旅政策、審批流程以及員工的個人資訊和偏好,為使用者指定合理的計畫。
小公尺:計畫將輕量級本地大模型接入終端,與WPS AI達成深度合作
2024年4月,小公尺成立了AI大模型團隊,在手機上對模型進行了13億引數測試,同時,小公尺語音助手“小愛”開始了大模型版本的內測,成為小公尺大模型的首個應用。 2023 年 8 月,小公尺最新的 13 億引數模型已成功通過手機執行,部分場景可以與雲端執行的 60 億引數模型的結果相媲美此外,小艾的月活躍度已經超過了11億,並公升級AI大模型能力,開放邀請測試。 2023 年 10 月,WPS AI 在小公尺 14 系列手機新品發布會上亮相,小公尺 14 系列手機使用者可通過小公尺社群使用具有 WPS AI 功能的 WPS 專屬版**。 在小公尺 14 系列手機上,WPSAI 支援輸入主題一鍵生成 PPT 演示文稿,並可提供進一步細化和調整的功能。 2023 年 10 月,小公尺 14 系列首次亮相驍龍 8 Gen3。
人性化:引入新的可穿戴 AI PIN,旨在與大型語言模型互動
2023 年 11 月 9 日,Humane 正式推出 AI PIN,這是一款由 OpenAI 提供支援的可穿戴裝置,旨在與大型語言模型進行互動。 該裝置允許使用者撥打電話**、傳送簡訊和通過說話搜尋資訊,還擁有雷射顯示屏,可直接變成手掌中的迷你螢幕,起價為 699 美元。
本文僅供參考,不代表我們的任何投資建議。 如需使用這些資訊,請參閱原始報告。 )
專題報告**:未來的智庫]。