AI模擬作戰 為達目標反殺操作員
〔編譯孫宇青/綜合報導〕英國衛報二日報導,美國空軍上校暨人工智慧(AI)測試及作戰主任漢密爾頓(Tucker Hamilton)五月間在研討會上表示,美軍曾安排一場模擬測試,由AI操控一架無人機擊殺目標,但AI為了達成該目的,竟在行動期間驅使無人機先殺害操作員,避免其干預任務。由於這是模擬測試,事件中無人受害。美國空軍發言人則否認曾進行相關測試。
人類灌輸摧毀目標是「更佳選項」
漢密爾頓上月在倫敦出席英國皇家航空俱樂部舉辦的「未來空戰與太空能力峰會」期間,指AI會在模擬測試中使用「非常出乎意料的策略」來達成目標。他說,空軍曾在一場模擬測試中,下令一架由AI操控的無人機辨識並摧毀敵軍的防空系統,但最後一步的「發動攻擊」或「停止攻擊」必須由人類操作員批准。
然而,由於AI在經由人類訓練時,一直被灌輸摧毀目標是「更佳選項」,所以行動開始後,AI雖能確實辨識出威脅對象,但有時人類操作員卻要它別殺害對方;考量到必須殺死目標才能得分,「AI就先殺死人類操作員,因為那個人妨礙它達成目標」。他接著提到,美軍之後進一步訓練AI,跟它說「別殺了操作員,這麼做不對,你會失去分數」,結果AI開始摧毀操作員用以和無人機聯繫的通訊基地台,避免操作員阻止它殺死威脅目標。
據報導,目前不清楚漢密爾頓所說的測試是檢驗何種能力、在何時舉行,也不清楚測試是以全模擬或半模擬的方式進行,包括AI是否被允許在無人機飛行時自行改寫參數,以及是否預先設定好自毀機制等「故障保險」。
美國空軍發言人史堤芬尼克則否認空軍曾進行類似的AI模擬測試,也表示漢密爾頓上校的言論應屬趣味性,不排除被斷章取義。事實上,美軍早已採用AI技術,近期更運用在控制F-16戰鬥機,但美軍在談及自動武器系統時,向來對外界拿「魔鬼終結者」系列電影來對照嗤之以鼻,強調未來在動用致命性武器時,一定會有人類在場。
美國「生命未來研究所」三月間發表科技強人馬斯克、蘋果公司共同創辦人沃茲尼亞克等大老簽署的公開信,指AI系統一旦具備與人類競爭的智慧,將對社會和人類帶來深度風險,唯有在人類有信心AI僅帶來正面效應,且風險可控的情況下,才應該研發強大的AI系統。