“社會工程”是黑客用來對付計算機安全系統的人為因素的一種久經考驗的策略,通常是因為它比擊敗複雜的安全技術更容易。 隨著新的人工智慧變得越來越像人類,這種方法對他們有用嗎?
不要與網路安全領域政治學中的道德可疑概念相混淆,社會工程學是一門使用心理操縱讓人們做你想做的事的藝術。 如果您是黑客,您希望人們做的事情包括洩露敏感資訊、交出密碼或直接向您的帳戶付款。
在社會工程領域有許多不同的黑客技術。 例如,隨意離開受惡意軟體感染的快閃記憶體驅動器取決於人類的好奇心。 由於“人類”在**或與您聊天室中,幾乎可以肯定的是,最終將成為某種型別的AI聊天機械人,這就提出了乙個問題,即社會工程藝術是否仍然適用於合成目標。
聊天機械人越獄已經存在了一段時間,有很多例子可以說明有人如何說服聊天機械人違反自己的行為規則,或者以其他方式做一些完全不恰當的事情。
原則上,越獄的存在和有效性表明,聊天機械人實際上可能容易受到社會工程的影響。 聊天機械人開發人員不得不反覆縮小範圍並設定嚴格的護欄以確保其行為正常,這似乎引發了另一輪越獄,看看這些護欄是否可以暴露或規避。
我們可以找到使用者 X 發布的一些示例,例如 Paris Buttfield-Addison 博士,他發布了一張螢幕截圖,該螢幕截圖顯然顯示了如何說服銀行聊天機械人更改其名稱。
例如,可以說服銀行聊天機械人刪除敏感資訊的想法確實令人擔憂。 話又說回來,防止這種濫用的第一道防線是首先避免讓這些聊天機械人訪問此類資訊。 在沒有任何人工監督的情況下,我們可以為此類軟體承擔多大的責任還有待觀察。
另一方面,為了讓這些人工智慧程式發揮作用,它們需要訪問資訊。 因此,這並不是讓他們遠離資訊的真正解決方案。 例如,如果 AI 程式正在處理酒店預訂,它需要訪問客人的詳細資訊才能完成工作。 因此,人們擔心的是,精明的**可能會巧妙地說服人工智慧洩露誰住在酒店以及哪個房間。
另一種可能的解決方案可能是使用“夥伴”。 在系統中,乙個 AI 聊天機械人監控另乙個機械人,並在它開始偏離軌道時進行干預。 讓 AI 主管在將每個響應傳遞給使用者之前對其進行審查可能是緩解此類方法的一種方法。
優質作者名單