作者 | zer0
編輯 |沙漠之影
相容CUDA,打不通?
新熙網3月6日報道稱,據外媒報道,英偉達已禁止使用翻譯層在其他GPU上執行CUDA軟體。
自 2021 年以來,NVIDIA 在其許可條款中明確禁止使用翻譯層在其他硬體平台上執行基於 CUDA 的軟體。 軟體工程師@longhorn發現這個“禁令”已被新增到 CUDA 11 的安裝中終端使用者許可協議 (EULA) 中包含 6 及更高版本。
英偉達 CUDA 11EULA 6 及更高版本有乙個限制性條款:“您不得對使用此 SDK 生成的任何結果進行反向工程、反編譯或反彙編,並在非 NVIDIA 平台上進行翻譯。 ”
與 NVIDIA CUDA EULA 相關的限制截圖。
EULA 鏈結:
一石激起千浪。 GPU行業長期飽受“CUDA依賴”之苦,NVIDIA多年不斷鞏固的CUDA生態牆猶如鐵牆,是其他GPU新秀難以匹敵的關鍵壁壘。 為了迎合市場需求,一些非NVIDIA GPU平台選擇相容CUDA,站在NVIDIA生態的肩膀上,擁抱GPU開發者。
這一訊息引發了一場討論:CUDA相容性禁令意味著什麼? 是否會對國內GPU企業產生不利影響?
對此,北京GPU獨角獸公司Moore Threads發表宣告澄清:“Moore Threads Musa Musify不涉及NVIDIA EULA的相關條款,開發者可以放心使用。 ”
Moore Threads的部分澄清宣告截圖。
根據 Tom's Hardware 的說法,與 CUDA 相容有兩種常見做法:重新 編譯**(可供相應程式的開發人員使用),使用平移層
其中第乙個符合重新編譯現有 CUDA 程式的做法。 AMD 和 Intel 都有工具可以分別將 CUDA 程式遷移到其 ROCM 和 OpenAPI 平台。 國內一些GPU公司也採用了類似的相容性思路。
EULA 條款主要禁止使用 Zluda 開源庫等翻譯層。 外媒稱,這是在非NVIDIA硬體上執行CUDA程式的最簡單方法。
英特爾和AMD此前都支援Zluda專案,但隨後都停止了。 Zluda 利用 ROCM 技術棧實現 CUDA 應用程式的二進位相容性,使 CUDA 應用程式無需修改即可在 AMD 硬體平台上執行**。
開發者之所以長期致力於NVIDIA GPU,是因為CUDA好用,與NVIDIA GPU硬體的軟硬體配合也是最好的,無需換新平台重新開始,其他平台可能存在潛在bug。
不過,如果CUDA可以在其他硬體上執行,雖然會有一定的效能損失,但縮小與NVIDIA的生態差距已經相當有利了。 這將在一定程度上威脅到英偉達在加速計算領域的霸主地位,英偉達做出限制也就不足為奇了。
隨著生成式AI越來越普及,被視為英偉達GPU護城河的CUDA的相容性成為熱門話題。
去年在紐約舉行的一次活動中,英特爾首席執行官亨利·基辛格(Henry Gelsinger)稱讚了CUDA技術,同時承認“整個行業都在積極淘汰CUDA市場”。
當時,他引用了MLIR、Google、OpenAI和其他例子,表明他們正在轉向“Pythonic程式設計層”,以使AI訓練更加開放。 他認為,“CUDA的護城河又淺又小”,它的主導地位不會永遠持續下去,因為該行業有動力將更廣泛的技術帶入廣泛的培訓、創新、資料科學等領域。
AMD首席執行官蘇姿丰在去年的一次採訪中表示,她不相信護城河,在她看來,過去,開發人員傾向於使用硬體特定的軟體,但展望未來,每個人都在尋求構建與硬體無關的軟體功能,人們希望確保他們能夠從乙個基礎設施遷移到另乙個基礎設施, 因此,這些更高階別的軟體正在構建中。
上個月,矽谷晶元架構之神吉姆·凱勒(Jim Keller)也在社交平台上抱怨:“CUDA是沼澤,而不是護城河。 他抱怨編寫 CUDA 的效率低下,Triton、Tensor RT、Neon 和 Mojo 的存在是有充分理由的。
可以說,AI晶元和GPU領域長期遭受苦難,業界對這種封閉的生態圈怨聲載道。 與CUDA的相容性只是權宜之計,晶元製造商或具有長期野心的初創公司正在構建自己的軟體生態系統,並支援更開放的生態系統。
開源程式語言,如 OpenAI Triton,正在成為對抗 CUDA 封閉陣營的關鍵力量,通過大大簡化 GPU 加速程式設計過程並顯著減少編譯新硬體所需的工作量來減少開發人員對 CUDA 的依賴。
與此同時,隨著GPU短缺變得更加嚴重,迫切需要更多計算能力的人工智慧公司可能會越來越多地考慮AMD和英特爾等競爭對手的替代品。 隨著他們捲起袖子推出更強大、更具成本效益的 GPU,英偉達的霸主地位將受到挑戰。
從業務決策的角度來看,NVIDIA不斷創新,著眼於解決複雜的視覺計算問題,有充分的理由捍衛其長期存在的智財權和業務成果,以便客戶及其生態系統能夠更牢固地結合在一起。