2025年1月15日,加拿大國際治理創新中心(CIGI)發布政策報告《軍事領域的人機交互和人類能動性》(Human-Machine Interaction and Human Agency in the Military Domain),針對在軍事領域應用人工智能技術所產生的分布式代理情況,分析和評估了與人工智能技術的交互將如何改變人類在軍事領域的代理權行使,即決策和行動的能力。
一、導言
人工智能技術在軍事決策過程中的應用越來越廣泛。起初,人工智能在軍事領域的應用主要與武器系統有關,此類武器系統通常被稱為自主武器系統(AWS),可以在沒有進一步人工干預的情況下識別、跟蹤和攻擊目標。世界各國軍隊已在使用由人工智能技術賦能的武器系統,此類系統通過計算機視覺技術來優化目標識別,主要包括巡飛彈等。雖然通常處于人類控制之下,但巡飛彈仍有可能在沒有人類干預的情況下動態攻擊。相關情況使得人們越發擔憂,在使用基于人工智能的系統時,人類在軍事決策中所起的作用或將減弱。
然而,武器系統只是人工智能賦能軍事應用的眾多領域之一。人工智能技術能提高對大量數據進行有效、快速分析的能力,其被應用于一系列軍事決策任務,如后勤、情報等。在軍事領域,此類系統通常被稱為基于人工智能的決策支持系統(DSS),旨在協助指揮鏈中不同層級的決策者解決半結構化和非結構化的決策任務。隨著人工智能技術發展,其應用或將改變許多軍事人員的工作方式。
二、分布式代理
如果把人與系統的整合理解為人類與人工智能技術之間自上而下、等級分明的分離,就低估了人機交互模式的重要性。人機交互的實踐可能深刻影響戰爭中人類的能動性(即決策和行動能力)。具體來說,人機交互在人類和機器之間引入了分布式代理。分布式代理旨在將代理權概念化,認為代理權是分布式的,由構成社會技術系統的技術或技術對象與人類之間的聯系動態演化而來。
人工智能技術以及將相關技術融入軍事決策中的方式,體現了多樣化的人類能動性。例如,在軍事決策過程中,人工智能數據支持系統可應用于不同任務場景。該系統可應用于描述,即收集、組織和展示從多個傳感器獲取的數據,也可應用于預測任務,包括分析歷史數據中的趨勢,并對未來進行概率預測。此外,數據采集系統還可響應指令性目的,就首選行動方案提供建議等。
分布式代理由人機交互的特定情境構成,并在特定情境中發揮作用。因此,人機交互實踐或將沿著一個圖譜形成不同形式的分布式代理。部分人機交互實踐可能側重于人類代理,而另一些則可能相反。隨著時間的推移,追蹤人機交互實踐的演變有助于從概念上理解人的能動性如何受到人機交互的影響而發生變化,以及發生這種變化的場景。
三、分布式代理帶來的挑戰
在軍事決策中強化人機交互所產生的分布式代理,將在操作、倫理規范和法律方面產生深遠影響,其影響程度取決于分布式代理的平衡點在哪里,即側重于人類決策,還是機器決策。
在操作方面,有證據表明人類在心理上傾向于一些認知偏差,而這些偏差在實踐中可能為機器代理留出更多空間。例如自動化偏差,即人類對人工智能技術或其他形式的自動化系統所產生的結果更有信心,而非更加信任自身的批判性思考能力。因此,人類可能不加批判地服從系統產出的結果。在戰爭的高壓情境下,這種傾向或將加劇。此外,數據超載和時間限制等原因,也會導致分布式代理情況下系統產出的結果優先于人的判斷。可用于監控戰場狀況的數據量不斷增加,推動了集成更多人工智能處理功能的行動,也擴大了人類與機器分析能力之間的差距。此外,以機器速度作戰的軍事愿景會進一步使分布式代理傾向于機器代理,這是因為人類在軍事決策過程的通信聯系及其它延遲會減緩決策循環。
在倫理規范方面,分布式代理會影響戰爭中道德代理權的行使。道德代理權指的是,在對所采取的行動和選擇負責的同時,對是非做出道德判斷的能力。如果分布式代理傾向于機器代理,那么受使用武力影響的人和在戰爭中使用武力的人的道德代理權都會降低,甚至可能喪失。這種對道德能動性的影響,源于在戰爭中與人工智能技術交互所產生的系統性、常規化和技術上的非人化,也進一步揭示了“人在回路”中是一種有問題的監管方式。雖然“回路中的人類”可能只是在表面上處于控制地位,實際上其在決策過程中的能動性是有限的,但他們可能被視為決策過程的關鍵道德決策者。
在法律上方面,由于國際法體系與人類責任緊密相關,分布式代理帶來了挑戰。司法的概念和制度以人為本,需要以人為對象。長期以來,法學界一直在努力解決將自主技術和人工智能技術融入軍事決策過程中產生的“責任差距”問題,例如在一些情況下可能承認在技術的設計和使用過程中歸屬于不同人類行為者的共同責任。由于承認人工智能技術的實質性作用及其對軍事決策的影響,分布式代理使得責任差距問題更加凸顯。目前,分布式代理存在傾向于機器代理的風險,“算法在基礎計算中的作用,可能導致國家在不知情的情況下根據機器的計算和建議做出戰爭相關決策”。因此,分布式代理的使用會產生是否合法的問題,特別是與區分原則、相稱性等國際人道法基本原則有關的問題,以及使用后的起訴問題。
此外,應對分布式代理帶來的問題,還意味著要承認人機交互模式不是單數,而是復數。多層次的軍事決策涉及不同人類、系統和人工智能技術同時出于不同目的的交互。美國的軍事項目,如“融合計劃”(Project Convergence),闡明了這種跨領域的網絡化戰爭模式,以及該模式如何將多種人機交互相結合。在這里,軍事人員不僅需要“同時控制多個平臺”,這些平臺還可能相互聯網,并可能使用再次聯網的人工智能DSS生成的數據輸出。這揭示了軍事決策過程對人工智能技術的日益依賴是如何削弱人類代理權的。
四、建議
一是提高認識。在軍事領域應用人工智能時,人類難以確保人機交互過程始終受控。在討論軍事人工智能相關的治理、對話和倡議時,應以分布式代理為基礎進行思考。在規劃性文件中使用人機系統集成(human-system integration)和人機協同(human-machine teaming)等術語時,軍方應明確承認這些概念構成了獨立的系統,是新的實體。
二是構建分布式代理圖譜。人機交互形成了不同形式的分布式代理,可能會不同程度地側重于人類代理或機器代理。為了解分布式代理不斷演變的軌跡并管控其結果,軍隊可利用分布式代理圖譜來規劃其跨職能、跨領域的人機交互實踐。這有助于理解人類代理和機器代理之間的平衡點,并在此基礎上評估可行性。
三是進行批判性分析。人機交互的所有實踐都可能產生機器代理優先于人類決策的分布式代理形式。有鑒于此,決策者和軍隊需要按照分布式代理圖譜,根據實際情況,批判性地分析某一分布式代理形式的利弊。區分風險閾值或將有利于軍隊應對分布式代理的弊端。
四是制定原則和應用指南。批判性分析應作為制定原則和應用指南的基礎,確保決策者和軍隊的分析結果能夠真正用于指導實踐。分布式代理意味著從根本上重新思考戰爭中人類決策者的意義,以及如何通過與機器交互來調整決策空間。這需要進一步提高認識,對所有面臨人機交互情境的軍事人員進行培訓。
免責聲明:本文轉自啟元洞見。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務?!叭蚣夹g地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.