雖然老黃去年靠著H100領銜的AI晶元在企業端賺了不少錢,也成為了AI晶元的龍頭企業,但是,對於普通消費者來說,除非你想要AI影象計算,否則NVIDIA的AI技術似乎離你很遠。
不過,現在老黃想讓普通消費者也享受到英偉達晶元帶來的AI便利。
當人工智慧聊天機械人熱潮開始興起時,大多數人都使用連線到雲計算伺服器的聊天機械人。 然而,聊天機械人在 PC 和智慧型手機上原生執行的趨勢越來越大。 NVIDIA 為 Windows PC 使用者引入了一種新方法,可以建立自己的大型語言模型 AI 聊天機械人並連線到本地儲存的內容。
NVIDIA 將其稱為 LLM Chat with RTX,現在該公司提供了乙個展示版本。 顧名思義,您的計算機必須具有 NVIDIA GeForce RXT GPU 才能執行此原生聊天機械人。 以下是特定的硬體要求:
圖形處理器 - NVIDIA GeForce RTX 30 或 40 系列圖形處理器或 NVIDIA RTX Ampere 或 ADA 代圖形處理器,具有至少 8GB 視訊記憶體
RAM - 16GB 或更多。
作業系統 - Windows 11
GeForce 驅動程式 - 53511 或更高版本。
* 安裝後,您將能夠放置"與 RTX 聊天"該應用程式與您本地儲存的內容(例如檔案、pdf 檔案等)連線。 然後,您可以使用本地資料集向聊天機械人提問,以便聊天機械人可以為您提供答案,而無需篩選所有資料。
不過,雖然聊天機械人不需要連線到網際網絡即可在本地執行,但如果你想找到答案,它仍然可以上網搜尋你,例如,RTX聊天工具可以在一些YouTube上找到**。 您需要做的就是將 URL 複製到應用程式中並詢問有關內容的問題。 與 RTX 聊天將為您提供答案。
當然,喜歡"與 RTX 聊天"這種原生 LLM 應用程式的最大特點是您可以擁有乙個 AI 聊天機械人,而無需將資料傳輸到公司的雲計算伺服器以進行訓練和其他目的。
不過,這樣做的代價是,你需要一台相當強大的計算機來執行它。
英偉達將"與 RTX 聊天"該應用程式被標記為免費技術展示。 這可能表明該公司計畫在未來的某個時候將其轉變為具有更多功能的付費或基於訂閱的應用程式。