2023年,以ChatGPT為首的生成式AI將以閃電般的速度引爆全球AI產業的浪潮。 來自各行各業的無數初創企業和領導者將目光投向了大規模模型研發和人工智慧應用。
作為AI晶元行業的知名企業,英偉達最近也推出了一款聊天機械人——Chat with RTX,基於人工智慧公司的兩款開源語言模型,分別是Mistral和Llama 2。 AI晶元本來是大模型運營的驅動力,但英偉達作為AI晶元廠商,開始開發自己的聊天機械人,從幕後走到台前,為什麼會這樣呢?
據悉,OpenAI首席執行官山姆·奧特曼(Sam Altman)正計畫籌集資金7萬億美元重塑全球半導體產業。
要知道2023年晶元製造裝置市場的投資金額1000億美元,美國最大的兩家上市公司Microsoft和蘋果的總市值剛剛超過這個數字6萬億美元。與此形成鮮明對比的是,可以看出奧特曼對AI晶元的自研自用有著極大的期望和努力。
事實上,奧特曼早就一直在談論人工智慧晶元的供需問題,對於現在的科技公司來說,為了趕上大機型競爭的趨勢,需要搭建強大的計算設施,昂貴且短缺的AI晶元正在成為瓶頸, 並在一定程度上限制了OpenAI的發展。對於初創企業來說,相比於Open AI等融資能力較強的企業,可以通過尋求算力租賃或顯示卡租賃平台,通過自研晶元提供大模型運營所需的優質算力,如備受讚譽的算力雲平台,獲得大模型運營所需的計算基礎設施。 而近日算力雲平台也推出了全平台顯示卡,其中就包括A100 V100 Tesla T4 RTX 4090顯示卡,在大型模型運營領域備受推薦。到本月底,平均體驗**將減少 75%。
在開放AI的情況下,大模型行業的領頭羊,正盯上晶元領域,AI晶元行業的先行者,英偉達做好了和平時期危險準備,並以行動應對這一舉動,開始布局大模型領域,並推出了自己的第乙個聊天機械人——與RTX聊天, 據悉,聊天機械人不是在網頁或APP中執行,而是需要安裝在個人電腦中。對電腦配置要求也很高,比如至少8GB視訊記憶體的RTX 30或40系列顯示卡支援應用,很多不滿足這個要求的使用者可以通過顯示卡租賃來使用聊天機械人,比如在算雲平台上租用RTX3080 4090顯示卡。
與市場上的主流聊天機械人不同,“Chat with RTX”(使用 RTX 聊天)無需連線Internet,本地執行。在 Chat with RTX 中上傳本地檔案後,您可以根據檔案中的內容與該檔案進行對話。 這意味著它對聊天內容沒有那麼多限制,並且可以以更快的速度交談。
例如,你問:“莎拉推薦的餐廳叫什麼名字? 答案真的是一下子產生的。
此外,Chat with RTX 在掃瞄 PDF 檔案和整理資料時非常有用。 Microsoft 自己的 CoPilot 系統不能很好地處理 Word 中的 PDF 檔案,但 RTX 聊天系統可以毫無問題地提取所有關鍵資訊,並且回覆幾乎是即時的,沒有通常與基於雲的 ChatGPT 或 Copilot 聊天機械人相關的延遲。
但作為乙個初出茅廬的聊天機械人,“Chat with RTX”仍然有很多東西可以提供,例如:它更善於發現而不是推理。作為回應,英偉達承認,在 Chat with RTX 中詢問有關多個文件的事實可能比要求提供乙個文件或一組文件的摘要獲得更好的結果。
還有乙個比較大的缺點是它不能記住上下文。例如,你問,“北美常見的鳥類是什麼? 然後他繼續問:“它是什麼顏色的? 它不知道你在問鳥的顏色,而當今市場上的大多數聊天機械人已經具有該功能。
相信無論是Open AI進軍AI晶元行業,還是NVIDIA進軍大模型市場,都不是一時的競賽,而是軟硬體的結合,布局未來的AI市場,畢竟AI晶元、算力、大模型、AI應用都是密切相關的聯盟。 #ai#
在這個算力時代,AI晶元逐漸成為稀缺資源,科技公司想要突破困境,用軟硬體結合的方式布局AI市場,從長遠來看,將是乙個很大的嘗試。