在生成式人工智慧的動態領域,創新是推動我們進入全新未知領域的驅動力。 每天都有新的模式、新的工具和平台以及新的用例出現,創造了創造力和技術的非凡融合,並重新定義了可能性的界限。 借助 Azure AI,我們的目標是提供業界最前沿的開放和尖端模型,確保開發人員有模型選擇權,繼續遵守負責任 AI 的最高標準,並繼續構建將所有這些結合在一起的出色工具,以加速我們在副駕駛中的創新。
在 Microsoft Ignite 上,我們宣布了超過 25 項關於 Azure AI 堆疊的公告,包括向 Azure AI 模型目錄新增 40 個新模型; Azure OpenAI 服務的新多模式功能; Azure AI Studio 中的模型即服務 (MaaS) 平台,並與 Mistral AI、G24、Cohere 和 Meta 合作,使其模型在其 MaaS 中可用; 以及 Azure AI Studio 的公共預覽版。
自 Ignite 以來,我們一直在擴充套件 Azure AI 產品組合。 今天,我們很高興地宣布推出更多 Azure AI 功能:Meta 的 LLAMA 2 在模型即服務中的可用性,推出 GPT-4 Turbo Visual Preview 以加速生成式 AI 和多模態應用程式開發,以及向 Azure AI 模型目錄新增更多模型,包括我們的 PHI 2 小型語言模型 (SLM) 等。 在 Azure AI 中,你已能夠在自己的基礎結構上部署模型很長一段時間 - 只需進入模型目錄,選擇要部署的模型以及要在其上部署的虛擬機器,就可以開始了。 但並非每個客戶都願意考慮運營基礎結構,這就是我們在 Ignite 上引入模型即服務的原因,這就像呼叫 Azure OpenAI 服務來操作模型 API 終結點一樣簡單。
今天,我們將在 Azure AI 的公共預覽版中提供 Meta 的 LLAMA 2 模型即服務,實現 LLAMA-2-7B(文字生成)、LLAMA-2-7B-chat(聊天完成)、LLAMAMA-2-13B(文字生成)、LLAMA-2-13b-chat(聊天完成)、llama-2-70b(文字生成)和 llama-2-70b-chat(聊天完成)等功能。 隨著我們在模型即服務中上線,我們將推出更多模型,從而為您提供最新資訊。
我們很高興地宣布,GPT-4 Turbo Visual Edition 現已在 Azure OpenAI 服務和 Azure AI Studio 中提供公共預覽版。 GPT-4 Turbo Visual Edition 是由 OpenAI 開發的大型多模態模型 (LMM),用於分析影象並提供有關影象的文字響應。 它結合了自然語言處理和視覺理解。 這種整合使 Azure 使用者能夠受益於 Azure 可靠的雲基礎設施和 OpenAI 的高階 AI 研究。 GPT-4 Turbo Vision 在 Azure AI 中可用,提供尖端的 AI 功能以及企業級安全性和負責任的 AI 治理。 與其他 Azure AI 服務結合使用時,它還可以新增提示、物件定位和增強光學字元識別 (OCR) 等功能。 WPP 和 Instacart 等客戶正在使用 GPT-4 Turbo Vision 和 Azure AI Vision,請檢視此部落格以了解有關其故事的更多資訊。
2023 年 10 月,我們宣布了微調 OpenAI 模型功能的公共預覽版。 從明天(2023 年 12 月 15 日)開始,微調將普遍適用於包括 Babbage-002、D**INCI-002、GPT-35-Turbo 在內的型號。 開發人員和資料科學家現在可以為特定任務自定義這些 Azure OpenAI 服務模型。 我們不斷通過這些新功能突破創新的界限,並期待看到開發人員接下來使用生成式 AI 構建的內容。
雖然 Azure 在作為 Azure AI 服務的一部分執行自己的模型(例如我們的語音、視覺和語言模型以及 Azure OpenAI)方面發揮著作用,但我們也知道客戶通常需要我們不操作的模型。 我們看到越來越多的客戶希望部署經過微調以適應特定任務的模型。 為此,我們長期以來一直在 Azure AI Studio 中執行乙個全面的模型目錄,其中包含各種廣泛的模型。 今天,我們宣布推出六款新型號。 Phi-2 和 Orca 2 現已上市,而其他型號將在不久的將來上市。
PHI-2 是 Microsoft 的小型語言模型 (SLM),具有 27 億個引數。 PHI-2 展示了 SLM 的強大功能,在推理能力和安全措施方面比 PH-1-5 有顯著改進,同時保持了相對於業內其他變壓器的相對較小的尺寸。 通過適當的微調和定製,這些 SLM 將成為雲和邊緣應用的強大工具。 了解更多資訊。
decilm。介紹decilm-7b,乙個帶有解碼器的型號,僅用於文字生成,擁有令人印象深刻的704 億個引數,得到 Apache 20 許可證。 DeciLM-7B 不僅是迄今為止最精確的 7B 基礎型號,而且超越了同類產品中的多個型號。
decidiffusion。decidiffusion 1.0 是基於擴散的文字到影象生成模型。 雖然它保留了 Stable Diffusion 的基礎結構元素,例如變分自動編碼器 (VAE) 和 Clip 預訓練文字編碼器,但 DeciFiFfusion 引入了重大改進。 主要創新是用更高效的U-NET-NAS取代U-NET,這是由DECI領導的開創性設計。 這種新穎的元素通過減少引數數量來簡化模型,從而實現卓越的計算效率。
Decicoder 1b 是乙個 10 億引數解碼器,僅用於完成模型,它是在 Starcoder 訓練資料集的 Python、J**A 和 J**Ascript 的子集上訓練的。 該模型使用分組查詢注意力機制,並具有 2048 個標籤的上下文視窗。 它使用填充中間的訓練目標進行訓練。 該模型的架構由DECI專有的神經網路結構搜尋技術Autonac生成。
Microsoft ORCA 2 的 ORCA 2 探索了較小 LM(大約 100 億個引數或更少)的功能。 ORCA 2 表明,改進的訓練訊號和方法可以為較小的語言模型提供更強大的推理能力,而這些能力通常只存在於更大的語言模型中。 ORCA 2 的效能明顯優於類似大小的模型,包括原始 ORCA 模型,並且在零樣本設定中測試高階推理能力的複雜任務中,其效能水平與比它大 5 到 10 倍的模型相當,甚至更好。 了解更多資訊。
Mistral 8x7b 具有與 Mistral 7b 類似的架構,但它是由八個專家模型組成的組合,這些模型由一種稱為專家混合 (MOE) 的技術組成。 MIXTRAL的解碼速度與12b引數密集型模型相當,有效引數密度是其4倍。