2024年,AI PC無疑將成為消費市場最受關注的焦點,而端側大模型和生成式AI的熱度將持續上公升。 隨著越來越多的AI PC新品發布,PC行業正在迎來一場新的革命。
而英偉達在這場革命中是不可或缺的。 今天,NVIDIA 在 CES 2024 上發布了 GeForce RTX 40 Super 系列,並正式宣布了優化的軟體、庫和工具。
英偉達的新軟硬體產品不僅將為遊戲玩家帶來全新的AI遊戲體驗,還將推動生成式AI在裝置端的採用。
RTX 40 Super系列發布,英偉達加入AI PC主戰場
AI PC是指具有軟硬體一體化混合智慧型學習和推理能力的計算機。
不過,目前業界對AI PC的定義還比較模糊,以西南**的研究報告為例,它將AI PC定義為:在架構設計方面,AI PC最重要的是嵌入AI晶元,形成“CPU+GPU+NPU”的異構解決方案。
不過,英偉達仍然可以在不使用 NPU 的情況下讓 PC 表現良好,並表示:“例如,當巨集碁、華碩、戴爾、惠普、聯想和微星等合作夥伴發布新的 RTX AI 膝上型電腦時,RTX AI 膝上型電腦的效能可以比使用 NPU 快 20-60 倍。 ”
然而,無論 AI PC 如何定義,在這股浪潮中,產品效能才是王道,擁有建立和執行生成式 AI 的生態系統才是標準。 這也可以在其 **RTX 40 Super 系列中看到。
Leifeng.com 了解到,在此版本中具有最高效能的 GeForce RTX 4080 Super 在 AI 工作負載方面比 RTX 3080 Ti 生成 ** 更快5 倍,生成影象的速度比 RTX 1 Ti 快 3080 倍7次。 Super GPU 的 Tensor Core 可提供多達 836 個 AI Tops。
新發布的 GeForce RTX 4070 Ti Super 擁有更多核心、16GB 視訊記憶體和 256 位視訊記憶體位寬。 1.比RTX 3070 Ti更快開啟 DLSS 2 時,比 RTX 3070 Ti 快 6 倍、快 3070 倍5次。 另一方面,RTX 4070 Super 的核心數比 RTX 4070 多 20%,使其能夠超越 RTX 3090,功耗僅為 RTX 3090 的一小部分,而借助 DLSS 3,其效能領先優勢將擴大到 15次。
基於強大的 AI 效能,NVIDIA 的 GeForce GPU 將為包括遊戲玩家在內的使用者帶來全新的 AI 體驗。
遊戲玩家的全新體驗和AI在裝置端的全面普及
英偉達推出了 NVIDIA Ace(**Atar Cloud Engine)微服務,該微服務使用生成式 AI 使遊戲 NPC 更加逼真,旨在增強使用者與遊戲 NPC 之間的互動。 具體來說,使用者用自然語言與遊戲NPC對話後,NPC沒有預設的回覆,但大模型生成NPC的反應、回覆內容、聲音、口型、舉止等。 它背後的大模型可以在雲端或PC上執行。
與此同時,Nvidia 發布了 NVIDIA RTX Remix,這是乙個用於建立經典遊戲的 RTX 重製版的平台。 測試版將於本月底發布,提供生成式 AI 工具,可將經典遊戲中的基本紋理轉換為物理精確的 4K 高精度材質。
在幀率提公升方面,NVIDIA DLSS 3 支援幀生成技術,該技術使用 AI 將幀率提高到原生渲染的 4 倍,據了解,該技術已用於已發布的 14 款新 RTX 遊戲中的十幾款,包括“地平線:西之絕境 (Horizon Forbidden Westine)”、“PAX DEI”和“龍之信條 2 (Dragon's Dogma 2)”。
AI開發者還可以充分利用端側強大的AI能力,讓生成式AI無處不在。
NVIDIA 將於本月底推出 NVIDIA AI Workbench 工具包,允許開發者在 PC 或工作站上快速建立、測試和定製預訓練的生成式 AI 模型和 LLM,專案可以擴充套件到資料中心、公有雲或 NVIDIA DGX Cloud 等,然後返回 PC 或工作站上的本地 RTX 系統進行推理和輕量級定製。 該工具還簡化了對 Hugging Face、GitHub 和 NVIDIA NGC 等流行儲存庫的訪問。
NVIDIA AI 基礎模型和端點取得了新的進展,包括 RTX 加速的 AI 模型和軟體開發套件。 Nvidia 已與惠普合作,將其整合到 HP AI Studio 中,這是乙個整合的資料科學平台,可簡化 AI 模型的開發。 這將使使用者能夠輕鬆地在 PC 和雲中搜尋、匯入和部署優化的模型。 而且,一旦您為 PC 用例構建了 AI 模型,開發人員就可以使用 NVIDIA TensorRT 對其進行優化,以充分利用 RTX GPU 的 Tensor Core。
NVIDIA 通過適用於 Windows 的 TensorRT-LLM 將 TensorRT 擴充套件到基於文字的應用程式,現在在最新更新中,Phi-2 被新增到不斷增長的 PC 預優化模型列表中,與其他後端相比,推理速度提高了 5 倍; 另一方面,TensorRT 擴充套件更新版本的發布將 Stable Diffusion XL (SDXL) Turbo 和 LCM 的效能提高了 60%。
英偉達還宣布了一項專為 AI 愛好者設計的技術演示 - Chat with RTX。 據了解,這項服務可能會在月底作為開源參考專案發布,供使用者通過"檢索增強生成 (RAG)。"將您的 PC LLM 連線到您自己的資料。 該演示由 Tensorrt-LLM 加速,允許使用者快速與自己的筆記、文件和其他內容進行互動。