amd在人工智慧中晶元該字段的開啟方式英偉達競爭之旅。 近日,在“Advancingai”活動中,amd發布用於大型模型訓練和推理MI300XGPU,以及 HPC 的MI300AAPU。 Microsoft 和meta而其他巨頭也紛紛宣布將使用amd最新的人工智慧晶元instinctmi300x。這一訊息引起了廣泛關注,因為隨著人工智慧技術熱潮的不斷發展,對算力的需求也越來越迫切amd該進入將為市場帶來新的競爭格局。
然而,儘管如此amd硬體功能強大,但與英偉達在競爭中,軟體生態系統成為amd需要克服的障礙。 訓練和執行大型 AI 模型不僅需要出色的硬體效能,還需要完整的工具鏈和資源庫。 而amdROCM 軟體生態系統英偉達之cuda還有一定的差距。 英偉達早在 2006 年推出cuda開發平台,通過cuda,開發人員可以更輕鬆地編寫 GPU 片上程式來實現複雜的計算任務。
經過10多年的發展,cuda它已成為行業標準,並擁有豐富的庫、工具和生態系統使開發人員更容易構建強大而高效的 AI 模型。 相比之下,amdROCM起步較晚,雖然它被重新製作cuda技術棧,並採取了開源策略,但cuda還有大約十年的差距。 為了能夠在AI算力領域跟風英偉達步伐,amd推出全新AI晶元、Mi300XGPU 和 Mi300AAPU。
這一訊息引起了業內的強烈關注。 Microsoft 和meta等行業巨頭也已確認將使用amd最新的人工智慧晶元amd該公司首席執行官蘇麗莎博士說instinctmi300x跟英偉達h100hgx 是可比的。 instinctmi300x由 8 個 MI300xGPU 組成,最多可提供 1 個5TB HBM3 記憶體容量,內建 8 個 XCD 和 304 個基於 CNDA3 架構的計算單元。
同時,amd軟體生態系統需要進一步發展,以達到以下特點:英偉達之cuda這些平台具有可比性。 英偉達2024年推出cuda該開發平台為開發人員提供了編寫 GPU 片上程式的便捷工具。 而amdROCM軟體生態系統相對較晚,儘管它採用了開源策略,並且幾乎被複製cuda技術棧,但具有cuda相比之下,仍有差距。 然而amd通過二元的翻譯和流程虛擬機器技術實施”。cuda相容amdGPU“,讓開發者更易用amd用於開發 AI 計算能力的 GPU。
儘管如此,amd之instinctmi300x還是給英偉達以及其他競爭對手一樣,是乙個強大的競爭對手。 根據amd的宣告,instinctmi300x執行大型語言模型推理吞吐量和延遲效能英偉達這 h100hgx。實際測試結果表明,LLAMA2 具有 70 億個引數,而 bloom 具有 160 億個引數推理任務instinctmi300x之推理效率達到H1的1004 次和 16次。
雖然amd目前在AI算力領域還不對英偉達構成威脅,但它的快速發展以及新人工智慧的推出晶元做英偉達保持警惕。 同時,Microsoft,meta其他公司將繼續選擇多元化商確保AI算力的穩定性**。 amd這一遊行注定會給市場帶來更大的競爭,促使英偉達不斷改進他們的產品和技術。
總之amd推出新品amd推出 AI 領域的 MI300XGPU 和 MI300AAPU晶元該領域的競爭引起了很多關注。 Microsoft 和meta而其他巨頭也紛紛宣布將使用amd最新的人工智慧晶元。然而,雖然amd硬體效能強大,但與英偉達仍然面臨著軟體生態的挑戰。 英偉達之cuda該開發平台已經開發了十多年,擁有強大的庫、工具和生態系統。相比之下,amdROCM軟體生態系統需要進一步發展,並提供更多的技術支援和資源。 雖然amd新人工智慧晶元在效能方面英偉達h100hgX,但紙面資料並不能代表一切,軟體生態系統的障礙仍然存在amd需要克服的挑戰之一。 然而amd遊行已經完成英偉達其他競爭對手感到警惕,並敦促他們改進產品和技術。 對於企業,請選擇 AI商,多種選擇對於保證AI算力的穩定性可能更為重要**。