財經美聯社2月6日(石正成編輯)。據不完全統計,2024年,來自50多個國家和半個世界的人民將面臨第一次連任。 同時,隨著最新一輪AIGC技術的出台,AI技術對網際網絡生態的威脅也達到了前所未有的高度。 連日來,“假拜登電話”、知名女演員深度造假**等事件引發國際社會強烈關注。
在整件事越來越失控之前,社交平台 Facebook、Instagram 和 Threads 決定通過識別和標記平台上的 AI 內容,嘗試將社交平台上的 AI 生成內容與現實生活區分開來。
識別、檢測和標記
Meta 表示,在未來幾個月內,Facebook、Instagram 和 Threads 將嘗試檢測上傳到平台的**,並將其標記為“AI”。
這個問題應該分為兩個層次:“基於證據的”AIGC**和雜亂無章的AI**,音訊內容。
首先,它是第乙個標準比較明確的領域。 以 Meta 自帶的 AI“文生地圖”功能為例,通過這種方式生成的**不僅會在左下角可見水印,同時** 還會在元資料中標有“不可見水印”
Meta 表示,它正在開發可以批量識別這些型別水印的工具,特別是 C2PA 和 IPTC 技術標準——這意味著當在 Google、OpenAI、Microsoft、Adobe、Midjourney、Shutterstock 等公司按計畫向 AIGC 工具新增元資料後,Meta 將能夠在社交平台上批量識別和標記這些公司生成的 AI。
當然,僅靠少數巨頭的合作並不能解決所有問題,那些惡意使用AI的人也有辦法去掉AI**中的標記水印。
英國前副首相兼 Meta 全球事務和傳播總裁尼克·克萊格 (Nick Clegg) 補充道Meta 現在還在開發分類器,目的是自動檢測那些由 AI 生成但沒有資料水印的分類器。 同時,Meta 的 AI 實驗室最近分享了一種名為“Stable Signature”的數字水印技術,該技術將水印機制直接整合到影象生成步驟中,這對許多開源模型來說將非常有價值。
音訊呢?
Meta 透露,與“水印”標準不同,AI 生成的音訊在這方面缺乏共識,因此現在無法按心跳進行標記。
作為回應,Meta 決定引入自我宣告和懲罰機制。 除了允許使用者自行宣告 AI** 和音訊外,Meta 可能會懲罰故意建立 deepfake 內容並故意不舉報的使用者。
克萊格進一步表示,Meta 可能會確定某些 AI 建立或修改的影象、** 或音訊內容在重大問題上嚴重欺騙公眾的風險特別高根據需要新增更突出的標籤
即使對“AI浩劫年”有擔憂,克萊格仍然認為,今年這種情況“席捲Meta平台”的可能性並不高。 克萊格說:“我們不會很快看到任何完全合成的、具有政治意義的**或音訊,我只是認為這不會發生。 ”
Clegg 還提到,Meta 已經在測試根據社群指南訓練的大型語言模型,並表示這項技術提供了一種高效的“分流機制”,以確保人工審核員看到的帖子確實是需要人工判斷的邊緣案例。