從武裝機器狗到無人潛艇,再到搜尋目標的無人機,人工智慧技術在現代戰爭中的日益應用,給人們帶來了乙個亟待解決的問題。
2020 年 11 月 27 日下午 3 點 30 分,一支車隊駛入德黑蘭的伊瑪目霍梅尼大道。 車裡有乙個重要的人 - 伊朗秘密核**計畫的負責人Mohsin Fakhrizadeh。 他和他的妻子在一輛安全車的護送下開車去鄉下家,當時他們正要到達目的地時遭到襲擊。
幾聲槍響後,法克里扎德駕駛的黑色日產汽車被擊中,無法繼續行駛。 槍聲再次響起,子彈擊中了科學家的肩膀,迫使他落車呼救。 隨後,當他完全暴露時,他又遭受了致命的打擊,而坐在副駕駛座上的妻子卻安然無恙。
接下來,奇怪的事情發生了。 一輛皮卡車突然**出於某種原因停在路邊。 事件發生後,伊朗安全部隊在檢查皮卡車殘骸時,發現了一些機槍碎片。 它是一種帶有多個攝像頭的遙控機槍。 難道法克里扎德是被機械人射殺的嗎?
《紐約時報》的後續報道顯示,這挺機槍不是全自動槍枝。 據推測,攻擊者在1000公里之外,會根據皮卡車的返回判斷扣動扳機的時機,並使用人工智慧軟體解決訊號延遲問題。
這是一場噩夢。 網路上流傳的俄烏衝突片段,加深了人們的恐懼。 在烏克蘭戰場上,無人機無處不在,從土耳其製造的“旗手”無人機、攻擊艦艇的海上無人機,到能夠投擲手榴彈的四軸飛行器。 如果這些剪輯是真的,那麼現實只會變得更糟。
網際網絡上有一段話**:一架無人機將乙隻機器狗運送到目的地。 機器狗一落地就迅速啟用,背上背著一挺機槍。 在另一段**中,一名俄羅斯人改裝了乙隻商用機器狗來發射子彈。
針對這些令人震驚的**,2024年10月,波士頓動力公司與其他五家機械人公司發表聯合宣告:“我們認為,對遙控機械人或自動化機械人進行改造,在它們身上新增**,並將它們遠端控制到他人以前無法進入的工作和生活場所,會產生新的風險,也是嚴重違反道德的行為。 將這些新型機械人轉變為新型機械人將導致公眾對機械人技術的信任轉變,從而本能地造福社會。 有大量個人試圖將商用機械人變成**的事件,我們強烈反對,並將盡力避免。 我們希望相關部門能夠幫助我們推廣移動機械人的安全使用。 ”
現代汽車集團(Hyundai Motor Group)的子公司現代羅圖姆(Hyundai Rotum)似乎對此沒有任何擔憂。 2023 年 4 月,現代 Rotem 宣布將與南韓公司 Rainbow Robotics 合作開發多足防禦機械人。 宣傳片顯示,這款產品其實是乙隻裝槍的機器狗。
國防分析家和軍事歷史學家蒂姆·裡普利(Tim Ripley)表示,波士頓動力公司的宣告沒有太大的實際意義。 “即使機械人沒有配備**,它仍然會在戰爭中使用,”他說。 例如,偵察無人機發現目標後,使用者決定發射炮彈,殺死人。 嗯,這架無人機其實和會發射炮彈的無人機沒有太大區別,它們都是攻擊鏈中的環節。 他還指出,偵察無人機在俄烏衝突中發揮了關鍵作用,既可以跟蹤敵人的動向,也可以發現轟炸目標。
計算機控制的軍事硬體通常由兩部分組成:硬體本身和控制軟體。 在戰場上,除了無人機,其他機械人都很少見。 然而,智慧型軟體的使用已經變得越來越流行。 倫敦國王學院(King's College London)高階戰爭研究員馬丁·邁克(Martin Mike)說:“英國系統需要內建一系列自主軟體。 有了這些軟體,士兵可以更快地做出決策,例如阿帕奇可以檢測來自地面的熱輻射訊號,其機載軟體可以快速識別潛在目標,甚至可以為飛行員提供優先考慮哪些目標的建議。 一旦飛行員掌握了資訊,他或她就可以做出決定。 ”
軍方顯然希望擁有更多類似的系統,尤其是那些可以適應機械人的系統。 美國幽靈機械人公司研製的機器狗(業內又稱四足機械人)被稱為偵察武器,可以幫助巡邏人員發現潛在的危險區域。 此外,它們也被稱為殺戮機器。
在2024年10月的美國陸軍協會年會上,幽靈機械人展出了乙隻背著槍的“殺手手機狗”。 該槍由美國公司Sword Defense Systems製造,名稱為特殊用途無人步槍。 劍公司官方**宣稱:專用無人步槍是無人**系統的未來,而這個未來已經到來。
英國皇家海軍測試了一種名為Manta的無人水下航行器。 這艘九公尺長的潛水器配備了聲納、攝像頭、通訊和干擾裝置,用於水下作業。 此外,2024年11月,美英軍隊在莫哈韋沙漠習演習,使用無人機、機械人運輸和人工智慧技術,幫助英軍在戰場上變得更具殺傷力。
然而,就目前而言,即使是最複雜的自主系統仍然需要人類參與決策。 有兩種型別的參與。 一種是“人機互動”,即計算機向人類操作員提供潛在目標,由人類操作員決定如何行動。 另一種是“人中環”,計算機給目標乙個擊殺序列,雖然人類可以隨時控制計算機,但大部分決策都是由計算機做出的。 在更極端的情況下,該系統完全自主執行,無需人工干預即可選擇和消除目標。
倫敦國王學院(King's College London)高階戰爭研究員馬丁·邁克(Martin Mike)說:“希望我們永遠不會進入最後階段,如果我們把決定權留給乙個自治系統,那麼我們就會失控。 如果系統認為擺脫人類領袖是當前戰鬥的最佳選擇怎麼辦?不能保證這種情況不會發生。 電影《終結者》描繪了乙個類似的噩夢場景:人工智慧機械人發動戰爭,發誓要消滅人類。
維吉尼亞理工大學教授費拉斯·巴塔斯(Feras Batarse)認為,人類社會離完全自主的系統還很遠,但人工智慧已經發展到危險的水平。 “人工智慧技術還不夠智慧型,我們無法完全信任,”他說。 但它們也沒有那麼愚蠢,所以人類會下意識地做出反應,不能讓他們失控。 ”
換句話說,如果士兵信任人工智慧系統,他可能會將自己置於更危險的境地。 原因是目前的人工智慧無法處理尚未習的情況。 研究人員將意外稱為異常值,而戰爭顯然會產生大量異常值。 在戰場上,意想不到的事情可能隨時隨地發生。 異常值只是戰爭的代名詞,而目前的人工智慧還不能很好地處理它。
即使這個問題得到了解決,我們仍然需要處理棘手的道德困境。 例如,當人工智慧做出殺戮決定時,你如何判斷它是否正確?這與阻礙自動駕駛技術發展的電動汽車問題類似。
普渡大學(Purdue University)教授索蘭·馬泰(Solan Mattei)認為,解決方案可能在於讓人工智慧戰士意識到自己的脆弱性。 這樣,他們就會珍惜自己的“生命”,“推動自己和他人”。 Mattey甚至認為,這樣做可能會使戰爭更加人性化,而要使AI值得信賴,它必須給他們帶來他們害怕失去的東西。
但即使是最道德的戰爭機械人也有乙個缺陷:它們無法保護自己免受黑客攻擊。 在這裡開發乙個**系統,那邊會有人試圖破解它。 這就是為什麼機械人單位顯然是敵人入侵的主要目標。 如果敵人從機械人的晶元中抹去道德並反對它們,後果將是毀滅性的。
邁克認為,如果你想控制這些可怕的**,也許你可以參考軍事歷史。 “歷史上有很多**嚇壞了人類,比如核**、化學**、生物**等。 現在各方都簽署了軍控條約,並不是因為哪個國家主動放棄了研發,而是因為大家發現這些武器在軍備競賽中太可怕了,所以才願意坐下來談一談。 ”
如今,無人機、機械人等無人駕駛無人機越來越頻繁地出現在戰場上。 在獨立**控制條約出台之前,一定還有一段可怕的日子要過去。