在數字戰爭的新時代,人工智慧已成為戰場上的一顆冉冉公升起的新星。 美國國防部最近宣布,它將與初創公司Scale AI合作,測試生成式AI模型在軍事應用中的潛力。
據總部位於香港的IDC稱,這家總部位於三藩市的公司將建立一套為五角大樓量身定製的工具和資料集框架,以幫助他們評估和完善大型語言模型的能力。 該框架將包括衡量模型效能,為戰場上的戰鬥機提供實時反饋,並建立一套專門的公共部門評估,以測試人工智慧模型在軍事支援應用中的表現,例如整理作戰報告的調查結果。
大型語言模型分析和生成文字的能力有望提高五角大樓收集情報和計畫作戰行動的能力,從而有助於在戰場上做出決策。
想象一下,戰鬥指揮官能夠實時獲得他們需要的所有戰略資訊。 "想象一下,這些戰鬥指揮官不再需要通過 PowerPoint 或組織內的電子郵件訪問資訊——情境響應時間已從一兩天縮短到十分鐘。 "國防部數字和人工智慧負責人克雷格·馬爹利(Craig Martell)在國防資料和人工智慧研討會上表示。
然而,雖然人工智慧可以快速處理大量資訊,但它也存在安全風險。 軍事資料通常非常敏感,人們擔心一旦這些資訊進入大型語言模型,就可能導致由於即時注入攻擊或 API 濫用而導致資料洩露。
最大的障礙是這些模型往往會產生不準確或虛假的資訊,這種現象被稱為“幻覺”。 隨著Scale AI的引入,五角大樓希望測試不同模型的效能,以識別潛在風險,然後再考慮使用它們來支援戰鬥或情報收集。
據報道,這家初創公司將編制乙個“保留資料集”,其中包含可用於軍事用途的有效應對措施示例。 然後,國防部可以比較不同模型對同一提示的響應,並評估其有用性。
去年,美國國防部成立了利馬特遣隊(Task Force Lima),該團隊由馬爹利(Martell)領導,他曾在拼車公司Lyft領導機器學習,致力於生成式人工智慧的軍事應用。
馬爹利當時解釋說:“國防部有責任負責任地採用生成式人工智慧模型,同時確定適當的保障措施並減輕因訓練資料管理不善等問題而可能產生的風險。 我們還必須考慮我們的對手將如何利用這項技術並試圖破壞我們自己的人工智慧解決方案。 ”
儘管如此,ChatGPT 等工具在內部暫時禁用,因為擔心軍事機密可能會被洩露或提取。 美國太空部隊告訴員工不要使用該軟體。
對此,Scale AI選擇保持沉默。