一年前,在 Amazon Web Services Re: Invent 2022 上,生成式 AI 幾乎沒有被提及。 但幾天後,OpenAI ChatGPT 聊天機械人誕生了,瞬間掀起了變革狂潮,將整個世界籠罩在生成式 AI 的新時代。
在短短一年內,生成式人工智慧已成為科技領域的重心。 亞馬遜網路服務在今年的 Re: Invent 2023 大會上強調了該技術如何成為這家雲巨頭議程的重中之重。
在今年的主題演講中,亞馬遜網路服務首席執行官亞當·塞利普斯基(Adam Selipsky)表示:“圍繞生成式AI模型的創新是最好的選擇。 他補充說:“它將重塑我們在工作和家庭中互動的每個應用程式。 我們正在以一種與以往完全不同的方式接受生成式人工智慧的整個概念。 ”
他還介紹了亞馬遜雲科技的“生成式人工智慧技術棧”,旨在為客戶提供生成式人工智慧應用、構建大型語言模型的新工具以及加速模型訓練和推理的基礎設施。
一種新的生成式 AI 技術堆疊。
在快速發展的 AI 環境中構建和部署生成式 AI 模型和應用程式通常會帶來一系列獨特的挑戰。 亞馬遜雲科技的回應是一套全新的生成式AI基礎設施,它由三層技術棧組成,分別是基礎設施層、基礎模型服務層和AI應用層,希望幫助客戶在這三層之上輕鬆創新。
在今年近兩個半小時的 Re:Invent 主題演講中,Selipsky 提供了大量有關生成式 AI 策略的細節,Selipsky 認為,他們的新 AI 技術堆疊在模型選擇、晶元成本和效能方面具有優勢,可以幫助 AI 開發人員在構建、訓練和執行生成式 AI 應用程式時在基礎模型上搶占先機。
堆疊的第 1 層:儲存和計算領域的重大革命。
隨著對生成式 AI 的需求持續增長,GPU 短缺。 據報道,英偉達效能最好的晶元可能在2024年之前就已經售罄。 台積電CEO近日表示,對前景並不樂觀,認為英偉達及其競爭對手的GPU短缺可能會持續到2024年。 為了減少對 GPU 的依賴,亞馬遜網路服務是幾家有能力的科技巨頭之一,他們正在開發用於建立、迭代和產品化 AI 模型的定製晶元。
憑藉 Nitro 虛擬機器管理程式和 Gr**Iton、Trainium 和 Inferentia 等晶元系列,亞馬遜雲科技在晶元開發技術方面積累了豐富的經驗,這也使其在雲和生成式 AI 領域具有顯著優勢。 在此前接受外媒採訪時,Selipsky解釋了這些創新的實際好處,並強調了在計算能力和成本水平之間取得平衡的重要性。 “生成式 AI 工作負載具有極高的計算密度,因此價效比至關重要。 ”
在本次大會上,亞馬遜雲科技推出了專為生成式AI和機器習訓練而設計的雲AI晶元Amazon Trainium2,以及自主研發的伺服器CPU晶元Amazon GR**iton4。
Amazon Trainium2 針對訓練具有數千億甚至數萬億個引數的基礎模型進行了優化,與 2020 年 12 月推出的第一代 Trainium 相比,效能提高了 4 倍,能效提高了 2 倍。 Trainium2 將用於 Amazon Web Services 中的 Amazon EC TRN2 例項,這是乙個由 16 個晶元組成的集群,在 Amazon EC2 UltraCluster 產品中可擴充套件到 100,000 個晶元。 亞馬遜雲科技表示,使用乙個由100,000個Trainium晶元組成的集群來訓練乙個具有3000億個引數的大型AI模型,可以將訓練時間從幾個月縮短到幾周。
另一款發布的晶元是基於ARM的GR**ITon4,它專注於推理。 根據 Selipsky 的說法,與在 Amazon EC2 上執行的上一代 Gr**Iton 處理器 Gr**Iton3(但不是較新的 Gr**Iton3E)相比,gr**iton4 的處理速度提高了 30%,核心增加了 50%,記憶體頻寬增加了 75%。
此外,亞馬遜雲科技還宣布了其 S3 物件儲存服務的重大更新:一種新的高效能、低延遲層 S3 儲存類 Amazon S3 Express One Zone,旨在為延遲敏感型應用程式提供每秒數十萬次資料訪問的個位數毫秒級資料訪問。 與 Amazon S3 標準版相比,Amazon S3 Express One Zone 的資料訪問速度提高了 10 倍,請求成本降低了 50%,計算成本降低了 60%。
堆疊的第 2 層:與 OpenAI 最強大的競爭對手聯手反擊 Microsoft。
在此前接受外媒採訪時,塞利普斯基分享了他對山姆·奧特曼突然離職和最終回歸的看法,“對於企業來說,他們必須努力擴大技術准入**;任何單一的模型或商都不應佔主導地位。 最近發生的事情再次證明了亞馬遜網路服務選擇的路線是合理的。 根據Selipsky的說法,“可靠的模型和可靠的供應商至關重要,提供選項並致力於支援該技術的雲提供商也至關重要。 ”
Selipsky專注於亞馬遜基岩平台,稱它已經被數以萬計的使用者使用。 亞馬遜基岩平台是亞馬遜雲科技於4月上線並於9月全面開放的大型模型開發平台,支援使用者從亞馬遜自有的Titan模型,以及AI21 Labs、Anthropic、Stability AI等第三方模型中呼叫和定製多樣化模型。
特別是,亞馬遜雲科技還特別邀請了Anthropic的CEO達里奧·阿莫迪(Dario Amodei)在現場分享。 在談話中,他們提到 Anthropic 圍繞 Amazon Web Services 構建了獨家定製功能,使用者只能通過 Amazon Bedrock 和 Anthropic 的第一方產品享受這些功能。 “這些服務將提供重要的微調和定製功能,並且僅在有限的時間內通過 Anthropic 的第一方產品在 Amazon Bedrock 上提供。 這是唯一的乙個,沒有分號。 ”
Anthropic 由一位前 OpenAI 工程師於 2021 年創立,其創始人“在模型安全方面從一開始就有不同的願景”。 今年 9 月 25 日,亞馬遜雲科技和 Anthropic 宣布戰略合作,亞馬遜雲科技表示將向 Anthropic 投資高達 40 億美元,這在數量上幾乎可以與 OpenAI 和 Microsoft 的合作相媲美。 可以說,在爭奪先進AI基礎模型的競賽中,亞馬遜雲科技與Anthropic的戰略合作已經成為其基礎模型服務層的重要組成部分。
自定義 AI具體而言,Amazon Bedrock 是乙個提供對託管基礎模型的訪問的平台。 其中包括亞馬遜雲科技內部開發的 Amazon Titan 系列大型語言模型 (LLM),以及來自其他供應商和開源生態系統的神經網路選項。 亞馬遜雲科技還宣布了兩項新功能:微調和持續預訓練,允許客戶在基岩中為特定任務定製大型模型。
自定義神經網路就是使用知識庫中未包含的新資料來訓練模型。 例如,電子商務企業可以使用產品文件來訓練模型,以回答客戶提出的與產品相關的問題。 此自定義過程可以顯著提高大型模型的準確性。
亞馬遜雲科技引入的第乙個自定義功能是微調,它允許開發人員在標記的資料集上訓練支援的基岩模型。 這些資料集包含示例輸入、常用提示詞以及針對這些提示詞的預先編寫的 AI 答案。 這些記錄以問答的形式組織起來,AI模型可以利用這些記錄通過示例快速向習學習。
亞馬遜雲科技推出的另一項自定義功能是持續預訓練,它針對一組不同的使用案例。 它允許企業在非常大的資料集上定製大型基岩模型,例如涉及數十億個代幣的庫。 令牌是與多個字元或數字相對應的資料單位。 此新功能還允許使用新資訊定期重新整理訓練資料集。
它還允許客戶對未標記的資料集進行持續的預訓練。 此類資料集包含示例輸入,但通常沒有 AI 模型所需的輸出示例。 現在使用者不需要建立輸出示例,因此可以大大減少建立訓練資料集的工作量,從而降低 AI 定製的成本。
亞馬遜網路服務(Amazon Web Services)生成式人工智慧首席開發布道師Antje Barth在一篇部落格文章中表示:“使用者最多可以指定10萬條訓練資料記錄,通常在提交至少10億個代幣後會看到顯著的定製結果。 ”
人工智慧安全。
本月,有報道稱,Microsoft名員工被禁止使用ChatGPT,這是該公司在OpenAI上投入巨資的產品。 “由於安全和資料問題,許多人工智慧工具不再可供員工使用,”據說這是當時來自Microsoft內部的資訊。 根據 Microsoft 的說法,“雖然Microsoft確實投資了 OpenAI,並且 ChatGPT 內建了防止不當使用的保護措施,但 ** 仍然是第三方外部服務。 ”
本次主題演講中有趣的一點是,當 Selipsky 談到 Bedrock 對安全和私隱的關注時,大螢幕播放了這篇關於 ChatGPT 的新聞報道。
塞利普斯基沒有點名Microsoft,但他對“朋友”在沒有全面安全保障的情況下發布早期版本的人工智慧產品的行為表示驚訝,“我不敢相信一家朋友公司居然在沒有全面安全保障的情況下發布了人工智慧產品的早期版本。 他們對自己的模型和資料的安全性沒有信心。 ”
堆疊的第 3 層:AI 助手的 Amazon Q 預覽版已正式發布。
在今天的主題演講中,亞馬遜雲科技還宣布了 Amazon Q 的預覽版,這是乙個處於技術堆疊頂端的應用程式。 一些分析師認為,Amazon Q 是今年 Re:Invent 大會上最重要的公告。 “它正在為開發人員提供人工智慧,幫助他們取得成功。 ”
Amazon Q 能夠回答諸如“如何使用 Amazon Web Services 構建 Web 應用程式?類似的東西。 Amazon Q 經過 Amazon 在過去 17 年中積累的知識培訓,能夠回答各種問題並解釋原因。
亞馬遜網路服務首席執行官亞當·塞利普斯基(Adam Selipsky)在演講中表示:“您可以使用Amazon Q輕鬆進行對話、生成內容並採取行動。 Amazon Q 完全了解您的系統、資料儲存庫和運營需求。 ”
使用者可以將 Amazon Q 連線到其組織指定的應用程式和軟體(例如 Salesforce、Jira、Zendesk、Gmail 和 Amazon S3 儲存例項)並自定義配置。 Amazon Q 將所有相關資料和內容編制索引,以“習”您當前業務的各個方面,包括組織結構、核心概念和產品名稱。
例如,一家公司可以通過 Web 應用程式詢問 Amazon Q,以分析客戶在哪些功能上遇到了問題以及如何改進它們; 也可以像使用 ChatGPT 一樣直接上傳檔案(Word 文件、PDF、電子**等)並提出與內容相關的問題。 Amazon Q 通過連線、整合和資料(包括特定於業務的資料)提供響應和參考。
Amazon Q 不僅可以回答問題,還可以充當生成或總結部落格文章內容、時事通訊和電子郵件的助手。 它還為工作中的一般操作提供了一組可配置的外掛程式,包括通過 Slack 中的特定團隊自動建立服務工單,以及更新 ServiceNow 中的儀表板等。 為防止錯誤,Amazon Q 要求使用者在採取行動之前檢視其行動建議,並顯示結果以供驗證。
可以想象,Amazon Q 可以通過亞馬遜雲科技管理控制台、各種 Web 應用程式和聊天應用程式(如 Slack)訪問,並且對亞馬遜雲科技系列產品和服務有透徹的了解。 根據亞馬遜雲科技的說法,Amazon Q 了解亞馬遜雲科技上各種應用程式工作負載的細微差別,即使對於只需要執行幾秒鐘或幾乎無法訪問儲存內容的應用程式,也可以接受 Amazon Q 的指導和操作。
在舞台上,Selipsky 展示了乙個高效能編碼和轉碼應用程式的示例。 根據 Selipsky 的說法,當被問及哪些 EC2 例項最適合當前使用案例時,Amazon Q 有乙個列表,其中包括效能與成本因素。
我堅信這將是生產力的改變,我希望來自不同行業和角色的人們都能從 Amazon Q 中受益。 ”
Amazon Q 與 Amazon CodeWhisperer 服務相結合,可構建和解釋應用程式**。 在受支援的 IDE 中,例如 Amazon Web Services 的 CodeCatalyst,Amazon Q 可以為客戶生成測試**,以衡量其質量水平。 Amazon Q 還可以建立新的軟體功能、執行轉換以及更新軟體包、儲存庫和框架的草稿和文件,從而使用自然語言優化和執行計畫。
根據 Selipsky 的說法,Amazon Web Services 的乙個小團隊在短短兩天內就使用 Amazon Q 將數千個應用程式從 J**A 8 公升級到 J**A 17,甚至完成了相應的測試。
Amazon Q 的轉換功能僅支援從 J**A 8 和 J**A 11 公升級到 J**A 17(即將推出)。 .NET Framework 到跨平台。 .NET 轉換)以及所有相關功能(包括轉換)都是 CodeWhisperer Professional 訂閱服務所必需的。目前尚不清楚未來是否會放寬這些要求。
Selipsky還重申了亞馬遜網路服務對安全責任的重要性,向潛在的生成式AI客戶保證,“如果你的使用者一開始就無法訪問某些東西,那麼在使用Amazon Q後,他們仍然無法訪問它。 Amazon Q 了解並尊重使用者的當前身份、角色和許可權。我們也絕不會使用業務內容來訓練底層模型。 ”
寫在最後。 很明顯,亞馬遜雲科技保持其在AI雲領域主導地位的核心戰略是繼續增強其雲基礎設施,並為市場開發獨特的生成式AI技術堆疊。
Selipsky認為,亞馬遜雲科技的生成式AI堆疊具有獨特的優勢,“我們獨特的生成式AI堆疊為客戶提供了優於其他雲供應商的比較優勢。 並非每個競爭對手都願意在每個層面上進行創新,客戶也不知道他們需要多長時間才能縮小差距。 ”
生成式 AI 的興起為大型雲提供商開闢了乙個巨大的新市場,在這個快速發展的過程中,業界已經感受到了生成式 AI 適應性和創新的重要性。 正如塞利普斯基所說,“適應能力是你能擁有的最有價值的能力。 亞馬遜雲科技還通過gr**iton尖端晶元、Trainium等專用晶元、模型平台和Amazon Q應用產品展示了這些創新元素。
可以看出,亞馬遜雲科技在其獨特的三層生成式AI技術棧上投入了大量資金,希望支援多樣化的AI模型和平台、戰略合作夥伴關係、最具成本效益的服務以及更豐富的技術選擇。