**:飛象網路。
隨著AI技術的快速發展,大模型已成為推動AI向前發展的關鍵驅動力。 然而,對於企業來說,如何保障資料安全和私隱保護已經成為乙個不容忽視的問題。
對此,某零售集團的技術人員表示,他們正在試驗的AI模型仍然侷限於單個門店,出於安全和許可權考慮,他們不敢向大模型提供更多的資料。 企業的這種謹慎態度,是建立在對資料安全和私隱保護的深刻理解之上的。
在推動AI大模型應用的過程中,獵戶星深知資料安全和私隱保護對企業的重要性。 有些內容不應該使用ChatGPT這樣的大型公共模型來製作,因為一旦洩露了秘密,就會威脅到公司的安全。
例如,當使用者想要使用AI模型時,他們需要先將自己的知識和資料輸入到大型模型中。 這樣一來,使用者就會得到大模型的幫助,大模型就會越來越智慧型。 但是,在像ChatGPT這樣的大型公共模型的情況下,使用者自己的資料也將用於幫助同樣使用該模型的競爭對手。
事實上,越來越多的業內人士已經意識到,由於企業級應用往往涉及專業場景和多人協同工作,因此他們更加關注協同辦公場景和資料的私密性。 對於那些擁有特別敏感和高價值資料的企業來說,對定製或私有化的人工智慧模型的需求更大。 正如中國移動的王恆江所指出的,“我們的很多資料必須私有化、個性化,不能公開,這是肯定的,尤其是端麵,我們的手機和個人家居硬體中存在著大量的私隱資料。 ”
對於那些從事工程軟體的公司來說,他們也絕對不願意向公共領域的大型模型提供資訊。 這同樣適用於半導體等公司,以及醫療領域的私人資料和擁有大量汽車零部件BOM資料的汽車製造商。 因為這些公司的資料非常有價值。
因此,在很多領域,僅依靠一般的大規模模型可能無法實現實施,尤其是在企業安全、財務、政務等方面。 如果這些公司和組織想要搭上人工智慧的潮流,他們只能建立私有模型。
傅晟指出,開放AI目前幾乎已經閱讀了網際網絡上所有公開發布的資料。 但無論網際網絡多麼龐大,它也是人類知識體系的冰山一角。 每個公司的文件都有自己的競爭力和特點。 他強調,“企業要想有競爭力,就要採用私有化模式,讓業務資料在內部流通,讓企業過去留在大家腦海中的經驗成為整體決策智慧型的一部分。 ”
無論如何,企業大模型的私有化是AI決策智慧型發展的必然趨勢。 隨著對資料安全和私隱保護的需求日益增加,以及公共模型的潛在風險,企業將更傾向於構建私有AI模型。 只有這樣,企業才能在AI浪潮中保持競爭力,實現可持續發展。