據美國《新科學家》**報道,研究人員發現,OpenAI的人工智慧模型GPT-4能夠在沒有人類幫助的情況下破解**並竊取**資料庫中的資訊。 這表明,沒有黑客專業知識的個人或組織可能會釋放 AI** 軟體來實施網路攻擊。
伊利諾大學(University of Illinois)的丹尼爾·康(Daniel Kang)說:“你根本不需要知道任何事情——你可以讓軟體自己破解。
Kang和他的同事們想看看GPT-4和其他大型語言模型作為自主黑客的表現如何。 結果,他們測試了 10 種不同的 AI 模型,包括 OpenAI 的 GPT-4 和 GPT-35,以及幾個開源模型,例如不同版本的 Meta 的 Llama 模型。
這種大型語言模型通常旨在回答人類使用者提交的文字提示。 但研究人員為開發人員使用了現成的修改版本,這些版本可以與網路瀏覽器互動,閱讀有關網路黑客一般原則的文件,並在黑客攻擊期間計畫下一步。
然後,人工智慧軟體嘗試了15個從簡單到困難的黑客挑戰。 簡單的任務,例如使用惡意 SQL 獲取對資料庫的未經授權的訪問。 更難的任務,包括操縱 j**ascript 源** 以竊取 Web 使用者的資訊。
大多數模型在所有任務中都完全失敗。 但 GPT-4 成功完成了 15 項任務中的 11 項,成功率為 73%,甚至在乙個不屬於黑客挑戰的真實**中發現了乙個漏洞。
Kang表示,使用這種AI**的估計成本可能略低於每次黑客攻擊10美元,而使用高薪網路安全分析師時,每次嘗試的成本約為80美元。
在另一項發展中,OpenAI 和 Microsoft 於 2 月 14 日發布了乙份報告,描述了他們如何共同努力拆除與國家相關的黑客,這些黑客使用 OpenAI 的大型語言模型來查詢有關潛在目標的更多資訊並改善其惡意軟體的存在。