最新的研究表明,從 2023 年上半年到下半年,deepfake“換臉”攻擊飆公升了 704%。
英國生物識別公司Iproov的分析師將這一激增歸因於複雜生物技術工具的日益普及。
由於 Genai 能夠處理影象或關鍵特徵,因此很難用 GenAI 檢測面部交換。
它們也是使用者友好且價格合理的。 要建立令人信服的面部交換,您所需要的只是現成的軟體。 然後,操縱或合成輸出被饋送到虛擬攝像機。
iProov的首席科學官安德魯·紐厄爾(Andrew Newell)博士告訴TNW:“面部交換工具的激增使得建立和注射面部交換變得非常容易,而技術知識很少。 ”
這些工具的知識,以及繞過許多現有防禦措施的技術,正在通過資訊共享論壇迅速傳播。 ”
根據 Iproov 的說法,SwapFace 和 DeepfaceLive 是不良行為者最常用的工具。
攻擊者經常將它們與模擬器(模仿使用者的裝置,如手機)和其他元資料操作方法相結合。
通過使用這些工具,可以隱藏虛擬攝像頭的證據,這使得面部交換更難被發現。
身份欺詐者迅速利用了這個漏洞。 去年上半年和下半年,深度偽造**和元資料欺騙的使用量猛增了 672%。 在同一時期,使用模擬器的威脅行為者增加了 353%。
合作也在公升溫。 在iproov分析師確定的群體中,近一半(47%)是在2023年建立的。
伊普羅夫的研究是在歷史上最大的深度偽造之一**之後幾天進行的。
據中國**報道,香港的一名財務人員在電話中被騙向冒充同事**的人轉賬2億港元(2380萬歐元)。 除受害者外,通話中的每個人都是真實工作人員的數字代表。
雖然尚未得到證實,但這次攻擊很可能使用了面部交換技術,該技術為威脅行為者提供了對生成的深度偽造的高度控制,並結合了注入技術,使其看起來好像來自真正的相機,“紐厄爾說。
在我們的報告中,我們注意到這些工具構成了非常重大的威脅。 ”
在研究人員強調深度偽造是最令人擔憂的人工智慧犯罪四年後,他們的焦慮正在成為現實。