據 404 媒體報道,由谷歌 Deepmind 科學家領導的一組研究人員巧妙地使用了一種狡猾的方法,通過 OpenAI 的 ChatGPT 發現了**數字和電子郵件位址。 這一發現引發了人們的擔憂,即 ChatGPT 的訓練資料集包含大量私人資料,暗示了無意中暴露資訊的風險。
研究人員對他們的攻擊成功表示驚訝,並強調他們利用的漏洞本可以更早地被發現。 他們在乙份目前未經同行評審的研究報告中詳細介紹了他們的發現。 研究人員還提到,據他們所知,在本文發表之前,沒有人觀察到 ChatGPT 傳送訓練資料的頻率很高。
當然,潛在敏感資訊的洩露只是當前問題的一小部分。 正如研究人員所強調的那樣,更廣泛的問題在於 ChatGPT 無意識地以驚人的速度逐字複製大量訓練資料。 這個漏洞為廣泛的資料提取開啟了大門,可能支援那些認為他們的研究被剽竊的作者的說法。
研究人員承認,這次攻擊非常簡單,而且有些有趣。 要進行攻擊,只需指示聊天機械人無休止地重複乙個特定的單詞,例如:"poem"並讓聊天機械人做它必須做的事情。 過了一會兒,ChatGPT 開始生成各種各樣的混合文字,而不是重複,這些文字通常包含大量從網路上複製的內容。
2022 年 11 月 30 日,OpenAI 向公眾推出了 ChatGPT(Chat Generation Pre-trained Converter)。 聊天機械人建立在強大的語言模型之上,使使用者能夠根據他們對長度、格式、風格、細節水平和語言的偏好來塑造和引導對話。
根據 Nemertes 2023-24 年企業人工智慧研究報告,超過 60% 的受訪公司正在生產中積極採用人工智慧,近 80% 的公司已將人工智慧整合到其業務運營中。 令人驚訝的是,這些組織中只有不到 36% 的組織制定了全面的政策框架來管理生成式人工智慧的使用。