作者: Mark Collier 丨OpenInfra**首席運營官。
OpenInfra 託管的專案包括用於雲計算的 OpenStack、用於邊緣計算的 StarlingX、用於持續整合和持續交付 CI CD 的 Zuul,以及用於安全容器的 Kata Containers,目前需求量很大。
在 187 個國家/地區的 100,000 多名成員的支援下,OpenInfra 專注於開源基礎設施。 展望2024年,想要對未來技術方向做出決策,就無法迴避飛速發展的人工智慧領域,在本文中,Mark將提出人工智慧領域的五大熱門話題**。
1.AI模型將變得更小、更高效
新的大型語言模型 (LLM) 將通過壓縮技術提高記憶體效率,允許複雜模型在效能受限的硬體上執行複雜的模型,同時將損耗降至最低。 我們已經看到像混合萌稀疏模型和Microsoft的PHI-2這樣的技術使這種情況成為現實。 特別是在推理方面,這些構建 LLM 的新方法可以在越來越小的硬體上執行,例如膝上型電腦、iPhone 或 Android 硬體裝置。 這種能力將擴大人工智慧的使用範圍,使各種規模的企業更容易採用人工智慧戰略。
2.全球合作幫助開源 AI 趕上 GPT4
開源 AI 將趕上並超越 GPT4 和 GPT4V,後者是目前最先進的技術,但尚未開放。 對開源 AI 模型的投資正在增加,每天都有新版本發布。 來自世界各地的研究人員正在測試這些模型並相互學習。 法國的Mistral(籌集了4億美元)和中國的Zero One Everything(01.)。AI)公司是利用開放獲取的眾多公司中的兩家。最重要的是,這些企業願意聽取社群的反饋,並消除限制,使這些技術越來越開放。
為此,我參與了由開源促進會(OSI)領導的一項重要工作,以起草“開源AI”的定義。 人工智慧涉及的不僅僅是資源**,這意味著它不符合我們對傳統意義上的開源的定義,也不符合 OSI 支援的開源的定義。 隨著開源模型的不斷改進,這將變得非常重要。
3.為使用者提供開源 AI 訪問許可權的託管人將更具競爭力
託管開源 AI 模型的途徑有很多,各種初創公司的迅速出現證明了這一點,不僅降低了成本,而且還找到了越來越有效的方法來託管模型。 有了足夠的GPU,使用者可以在膝上型電腦或台式機上本地執行AI模型,但伺服器端的競爭會更加激烈,從而降低處理這些模型的成本。
4.軟體的進步將加劇對人工智慧硬體的競爭
英偉達憑藉其CUDA架構和軟體堆疊,主導著AI訓練和執行模型的關鍵元件,然而,在2024年,AMD和其他公司有望推出更好的硬體產品,以及改進的支援軟體,例如AMD對PyTorch支援和CUDA替代品的投資,AI硬體的競爭將加劇,英偉達的行業領導地位也將受到挑戰。
5.人工智慧將迎來娛樂領域的突破
ChatGPT 是使用者數最快突破 1 億的消費類線上產品,其易於使用的聊天介面將自然語言處理 (NLP) 和 LLM 技術帶到了全球視野。 就我個人而言,我認為同樣有影響力的事情也會發生在娛樂領域。 預計在 2024 年,我們將看到一部完全由 AI 生成的短片或劇集在影院上映或在主流**平台上上映。
毋庸置疑,隨著系統變得更加智慧型,變革的步伐正在加快,這種勢頭將在 2024 年繼續下去。 個人、組織、組織都會受到創新加速的影響,在這個瞬息萬變的時代,引起共鳴的問題是:我們如何才能共同跟上這股前所未有的AI發展浪潮?
關於作者
馬克·科利(Mark Collie)參與了許多顛覆性的技術變革,從戴爾的第乙個GPU,到MusicMatch的數字*****轉型,以及雅虎的第乙個流媒體***點播服務。 2010 年,在雲計算的早期先驅 Rackspace 工作期間,Mark 與 NASA 和全球其他 25 個組織共同創立了開源雲計算專案 OpenStack。 2012 年,Mark 與他人共同創立了 OpenStack,並擔任了十多年的首席運營官,管理著有史以來增長最快的開源專案之一。 2020年,OpenStack將正式演進為OpenInfra。 現在,Mark正在幫助擴充套件協會的使命,將OpenStack社群積累的獨特開放協作方法帶到雲基礎設施市場中的更多開源專案中,包括Kata Containers,Zuul CI CD平台和StarlingX分布式計算平台。
關於開源基礎設施:OpenInfra致力於構建多元化的開源社群,並促進開源基礎設施軟體在生產中的使用。 在全球 187 個國家和地區的 110,000 多名社群成員的支援下,OpenInfra** 託管開源專案,並在人工智慧、容器雲原生應用、邊緣計算和資料中心雲等領域開展社群實踐。 歡迎來到 OpenInfra!