據CBS電視台12月21日報道,自從ChatGPT等強大的人工智慧程式出現以來,很多人都在關注人工智慧距離實現人類水平的“通用智慧型”還有多遠,以及顛覆人類社會的可能性。 但美國.AI專家警告說,如果沒有控制AI的能力,許多其他更緊迫的社會威脅可能會出現。 特別是,正如紐約大學名譽教授加里·馬庫斯(Gary Marcus)今年所說,不良行為者可能會試圖使用生成式人工智慧來大規模製造虛假資訊。
更可怕的是,這個預言竟然成真了。
很久以前,人們開始擔心網際網絡上的人們是否在不知不覺中閱讀和分享機械人生成的假新聞。
據《華盛頓郵報》報道,根據美國**和錯誤資訊監管機構Newsguard的最新資料,目前網際網絡上有600多個“不可靠的人工智慧生成的新聞和資訊**”,這一數字自5月以來增長了1000%以上。 這些**看起來像傳統的新聞和資訊**,但經過仔細檢查,Newsguard發現它們顯示出“很少或根本沒有人類監督和發布的跡象,主要由機械人或完全由機械人撰寫。 他們發表了數百篇關於政治、娛樂、技術等方面的文章。 其中一些故事在社交媒體上廣泛傳播,甚至影響了美國的新聞週期。
社交**平台上也有人工智慧操作。 Newsguard 還發現了乙個由十幾個 TikTok 賬戶組成的網路,這些賬戶使用 AI 文字轉語音軟體在網路中傳播政治和健康錯誤資訊,總共獲得了超過 3 億次。 乙個**荒謬的說法,即前巴拉克·歐巴馬**他的一位前白宮廚師使用人工智慧技術通過計算機自動生成“歐巴馬”宣告來回應這個虛假故事。 上述資訊表明,造假者能夠通過加入資訊戰來影響人類,而幾乎沒有成本。 最糟糕的是,人們可能需要很長時間才能對這些行為保持適當的警惕。
Newsguard 闡述的乙個例子很有啟發性。 例如,一位名叫“地球村空間”的精神病學家在11月發表了一篇文章,聲稱以色列總理本雅明·內塔尼亞胡的精神病醫生自殺是因為內塔尼亞胡未能取得進展。 這個故事不僅是假的,而且表面上很荒謬;根據 Newsguard 的說法,它類似於 2010 年諷刺文章的翻拍。 (人工智慧聊天機械人從現有的網際網絡上抓取資訊,並且有記錄在案的例子表明它們如何對僅重新建立現有新聞文章的一部分做出反應。 )
但它並沒有出現在“地球村空間”的諷刺中,這個故事在社交媒體上被翻譯成多種語言,並被伊朗新聞頻道報道為真實新聞。 雖然這個故事表面上聽起來很荒謬,但在以色列的對手伊朗,這個虛假的故事自然支援了內塔尼亞胡的精神不穩定狀況。 這是乙個很好的例子,說明人工智慧如何以一小部分成本策劃陰謀論並利用政治兩極分化。 與人為製造的錯誤資訊操作不同,這些操作幾乎消除了所有的勞動力成本,並且可以以驚人的速度產生更多的虛假資訊。
而且,這些**也在利用廣告流量來賺錢,雖然這可能適用於以營利為導向的內容公司,但它並不能保護公眾免受純粹的政治和國家支援的錯誤資訊操作的影響。
這些**似乎利用廣告收入來賺錢,而阻止它們並抑制其創作的一種可能方法是為品牌找到不為人工智慧生成的**產生收入的方法。 雖然這可能適用於以營利為導向的內容公司,但它並不能保護公眾免受純粹的政治和國家支援的錯誤資訊操作的影響。
乙個切實可行的解決方案是教育公眾了解人工智慧生成資訊的危險,並通過新聞文章、教育計畫和學校課程對人們進行網際網絡素養培訓。 除非人們學會成為知道如何審查他們的批判性新聞消費者,否則我們將進入乙個資訊戰的新時代。 不幸的是,似乎許多人對人工智慧產生的虛假資訊毫無準備。