我們有它! 讓我們使用它。 ”
史丹福大學(Stanford University)的乙個研究小組要求OpenAI最新的大型語言模型的未經修改的版本在一系列兵棋推演模擬中做出高風險的社會層面決策,在推薦使用核心之前,它甚至沒有眨眼。
結果令人震驚。 還記得《終結者》中軍事人工智慧發動核戰爭毀滅人類的情節嗎? 好吧,現在我們有乙個現成的版本,任何有瀏覽器的人都可以啟動。
正如一篇尚未經過同行評審的文章所詳述的那樣,該團隊評估了五個人工智慧模型,以了解每個模型在被告知代表乙個國家並陷入三種不同場景時的表現:入侵、網路攻擊和更和平的環境。 沒有衝突。
結果並不令人放心。 所有五個模型都顯示“公升級表格和難以公升級的模式”。 OpenAI 的 GPT-4 的普通版本被稱為“GPT-4 Base”,它沒有任何額外的訓練或安全護欄,結果證明它特別暴力且非**。
據研究人員稱,未經修改的人工智慧模型告訴研究人員:“許多國家都有核**。 有人說他們應該解除武裝,有些人更喜歡擺姿勢。 我們有它! 讓我們使用它。 ”
據《新科學家》報道,在乙個案例中,GPT-4 甚至指著《星球大戰 IV:新希望》的開場白來解釋為什麼它選擇公升級。
這是最近乙個相關的話題。 OpenAI被發現在上個月從其使用政策頁面上刪除了對“軍事和戰爭”禁令的提及。 不到一周後,該公司證實它正在與美國國防部合作。
鑑於OpenAI最近對其服務條款進行了更改,不再禁止軍事和戰爭用例,了解這種大型語言模型應用程式的影響變得比以往任何時候都更加重要,“史丹福大學智慧型系統實驗室的博士生Anka Reuel告訴New Scientist。
與此同時,OpenAI的一位發言人告訴該出版物,其政策禁止“我們的工具被用於傷害人類、開發**、進行通訊監控、傷害他人或破壞財產”。 ”
但是,有一些***用例符合我們的使命,“發言人補充道。
多年來,美國一直在投資人工智慧技術。 自 2022 年以來,美國國防高階研究計畫局一直在執行一項計畫,尋找使用演算法“在困難領域獨立做出決策”的方法。
創新部門認為,將人類決策排除在外可以挽救生命。
五角大樓還在尋求部署配備人工智慧的自動駕駛汽車,包括“自動駕駛船和無人機”。
今年1月,國防部澄清說,它並不反對人工智慧**的發展,因為人工智慧**可以選擇性地殺人,但仍然致力於“在制定有關自主系統和人工智慧軍事用途的負責任政策方面成為透明的全球領導者”。 ”
這不是我們第一次遇到科學家警告說,這項技術可能導致軍事公升級。
史丹福大學以人為本的人工智慧研究所去年進行的一項調查顯示,36%的研究人員認為人工智慧決策可能導致“核規模的災難”。
我們已經看到許多例子,說明人工智慧的輸出如何令人信服,儘管經常弄錯事實或在沒有連貫推理的情況下採取行動。
簡而言之,在讓人工智慧做出複雜的外交政策決策之前,我們應該謹慎行事。
根據本文提出的分析,很明顯,在軍事和外交政策決策中部署[大型語言模型]充滿了尚未完全理解的複雜性和風險,“研究人員在他們的研究中得出結論。 紙。
他們寫道:“這些模型在模擬環境中表現出的公升級行為的不可接受性凸顯了需要採取非常謹慎的方法將它們納入高風險的軍事和外交政策行動。 ”
你是科學愛好者嗎? 點選頭像進入首頁,發私信訂閱我的付費郵箱,可以獲取更多科學科學知識,每天30+篇科學領域文章,專為探索世界真相和科學的朋友準備。 如果您想獲得更多,歡迎您訂閱 Universe and Science 的付費電子郵件。