今天分享的是【2023中國聯通人工智慧私隱保護***報告出品方:中國聯通。
精選報告** 公開標題:全球行業報告庫
1. 生成式 AI 私隱風險
生成式AI的內生私隱風險主要是使用生成式AI模型的過程導致的資料洩露風險。 一方面,使用者在與ChatGPT等生成式AI模型互動時,有時會輸入包含私有資料的提示命令,這些指令被不加選擇地記錄和儲存。 由於缺乏對相應資料的訪問限制,因此這些指令中包含的使用者私隱存在受到損害的風險。 另一方面,生成式AI模型通過海量訓練資料的習生成新資料,目前以ChatGPT為代表的生成式AI模型基本都是重組創新,在進行前向推理時,模型存在將訓練資料中包含的私隱資料進行轉換拼接生成輸出的風險,暴露給無關使用者。
2、人工智慧私隱保護與控制技術
許可權管理根據預設的規則或策略,限制使用者對授權資源的訪問,以保護系統安全和資料完整性。 訪問控制是一種確保資料處理系統資源只能由授權實體以授權方式訪問的手段。 通過對人工智慧系統的訪問和使用實施訪問和使用控制機制,可以確保人工智慧資料和模型的私隱和安全,以便只有經過授權的人員才能訪問和使用特定資料。
3、人工智慧私隱保護資料加密技術
同態加密是一種加密形式,允許使用者直接對密文進行特定的代數運算,得到的資料仍然是加密的結果,結果與對明文執行相同的操作,然後對結果進行加密是一樣的。 首先採用同態加密技術對統計資料進行加密,演算法的同態性保證了使用者可以在不洩露資料資訊的情況下對敏感資料進行操作。 同態加密可進一步分為部分同態加密、輕微同態加密和完全同態加密。 其中,部分同態加密技術僅支援密文的部分計算,以BGN演算法表示的輕度同態加密支援有限次數的計算,全同態加密可以對密文進行任意同態操作,次數不限次。 在機器習領域,為了實現使用者資料的保密性,需要結合加密技術來保護資料。 然而,傳統密碼學方法的計算複雜度非常大,而全同態加密在計算成本上具有明顯的優勢,因為它允許在不解密的情況下對加密資料進行任意操作。 基於同態加密的基於機器的習私隱保護方案分為無多項式逼近的同態加密私隱保護方案和基於多項式近似的同態加密私隱保護方案。
4、人工智慧私隱保護攻擊防禦技術
近年來,隨著大模型的快速興起和應用,研究人員提出了一種快速攻擊防禦方法和生成內容檢測過濾防禦方法,以防止大模型對快速攻擊的威脅和生成內容的私隱洩露。 對於提示注入攻擊防禦,一種簡單明瞭的提示注入攻擊防禦策略是將防禦策略新增到指令中,以增加指令的魯棒性,以強制執行所需的行為。 常用的技術包括調整球桿的位置、用特殊符號標記等。 同時,研究人員提出構建乙個提示檢測器來檢測、分類或過濾提示,以防止敏感和有害的提示輸入。 目前,OpenAI 的 ChatGPT、Microsoft 的 NewBing 等都採用了這種防禦策略。 對於生成內容過濾防禦,目標是識別並避免輸出私有內容。 生成內容檢測的方法主要包括構建規則集合的方法和構建審核模型的方法。 通過使用這些方法,首先對輸出內容進行檢測和識別,然後根據檢測和識別結果對私隱內容進行遮蔽和過濾,從而避免敏感和危險內容的產生。
5. 人工智慧私隱保護的新興技術
Fed 習 erated learning,由谷歌於2024年提出,是一種分布式機器學習習方法,其中多個參與者通過安全機制與模型引數資訊或梯度資訊進行互動,而不與資料互動,從而達到協同訓練效果。 與傳統的集中儲存和訓練模式相比,聯邦學術習具有“去中心化”的特點,可以實現資料私隱保護和資料共享分析之間的平衡,實現“資料可用且不可見”。 常用的聯邦習技術按資料採集維度可分為三類,包括水平聯邦習、縱向聯邦習和聯邦遷移習,其中具有代表性的演算法和架構為Fed**G演算法和微眾銀行的FATE架構。 目前,聯邦習 習技術被Facebook、亞馬遜、蘋果等科技公司廣泛使用,國內金融科技公司和大學也在向資料私隱和安全技術發力。 在通訊領域,利用聯邦學術習和各種網路裝置的資料,共同訓練模型,優化網路站點規劃,此外,還可以促進以通訊運營商為中心的跨域生態合作。
本文僅供參考,不代表我們的任何投資建議。 如需使用這些資訊,請參閱原始報告。 )
精選報告** 公開標題:全球行業報告庫