最近,科學技術領域掀起了一股浪潮。 谷歌的雙子座聊天機械人和Microsoft的Copilot聊天機械人在處理有關超級碗橄欖球比賽的資訊時犯了乙個荒謬的錯誤。 兩家科技巨頭推出的聊天機械人,居然提前“公布”了尚未進行的比賽的統計資料和結果,一度引起廣泛關注和討論。
根據 Reddit 上的一篇文章,雙子座聊天機械人在回答有關超級碗 LVIII 的問題時表現得好像遊戲已經結束。 它提供了詳細的球員統計資料,包括堪薩斯州四分衛派屈克·馬霍姆斯的 286 碼跑動、兩次達陣和一次攔截,以及布洛克·珀迪的 253 碼跑動和一次達陣傳球。 然而,這些統計資料完全是虛構的,因為超級碗LVIII尚未舉行。
巧合的是,Microsoft的Copilot聊天機械人也堅稱遊戲已經結束,並提供了虛假報價來支援其說法。 不過,與雙子座不同的是,Copilot報道說,49人隊以“24-21的最終比分”獲勝。 這一錯誤結果引發了網友的熱議和質疑。
值得注意的是,這兩個聊天機械人都是基於Genai模型開發的。 Genai模型在大量公共網路資料上進行訓練,以學習文字資料的模式和概率分布。 然而,正是這種基於概率的方法導致聊天機械人在處理實時資訊時出現錯誤。 他們無法真正理解遊戲的實際進度和結果,而只是根據以前的訓練資料生成合理的響應。
這一事件引發了人們對人工智慧技術的侷限性和潛在風險的擔憂。 首先,AI模型的智慧型水平仍然有限。 雖然它們在某些領域表現出驚人的能力,但在處理複雜的實時資訊時,它們往往難以保證準確性和可靠性。 其次,對人工智慧模型的過度信任會導致誤導和錯誤的決策。 由於聊天機械人生成的內容往往看起來非常逼真和令人信服,因此使用者很容易被誤導,從而做出錯誤的判斷。
針對這個問題,專家提醒使用者在使用AI技術時要保持警惕。 他們建議將人工智慧模型視為輔助工具,並與其他**資訊相結合,做出全面的判斷。 此外,科技公司還應加強對AI模型的監管和審查,確保其提供的資訊準確可靠。
谷歌和Microsoft的聊天機械人誤報超級碗結果的事件揭示了人工智慧技術的侷限性和潛在風險。 我們應該謹慎和批判,在使用人工智慧技術時做更多的驗證和驗證。 只有這樣,我們才能更好地利用人工智慧技術,為我們的生活和工作帶來便利和進步。 2月** 動態激勵計畫