善用AI技術 守護和平與安全
人工智慧(AI)近年在軍事領域的應用日益廣泛,其蓬勃發展的態勢,改變了現代戰爭型態。包括烏俄戰爭、以哈衝突等,讓世人見證了戰場上交戰雙方武器系統攻防、情報蒐集分析、軍事決策指揮輔助,皆已大幅導入AI尖端科技。而當各國紛紛投入和部署AI技術於軍事用途時,亦需從戰略、倫理道德和法律等多重面向,省思國際社會為何要制定AI技術在軍事應用領域相關規範的深層意義,以降低未來因技術濫用和失控,對人類安全帶來的負面效應。

 審視當前AI技術的軍事應用情形,主要涵蓋了無人機、軍用智慧機器人、自主武器系統,為各國國防科技發展爭相競逐的焦點。例如,烏俄戰爭中,運用AI技術定位地理位置、分析社群媒體內容等公開來源數據,使烏軍得以快速辨認俄羅斯士兵、武器、系統裝備、單位或移動情況;在以哈衝突中,AI技術則運用於快速反應,以提高軍事效能。同時,以AI技術驅動的無人機和自主武器系統,也大幅提升精準打擊和高效情報蒐集的成效;AI技術也大量用於智慧指揮與控制系統的部署,能即時處理大量數據,並精確繪製戰場態勢圖譜,為指揮官在瞬息萬變的戰場環境中,提供決策支持,增加成功公算。

 析言之,AI技術一日千里,在軍事領域的應用上,已成為推進戰爭型態轉變的關鍵要素。然而,此一變革也可能帶來諸多倫理道德與法制規範方面的挑戰。例如,一旦規範不明,自主武器系統若在缺乏明確的國際法規約制下使用,可能有導致誤傷平民的風險,甚至陷入戰爭罪行的爭議。此外,AI技術以算力、算法、數據為核心,其演算法的決策過程,因缺乏透明度和問責性,可能衍生在戰爭中使用AI技術合法性、合理性的質疑。

 因此,近期在義大利召開的「七大工業國集團」(G7)峰會中,與會各國領袖與代表,不約而同地高度關注AI技術應用在戰場的危險性。受邀與會的羅馬天主教教宗方濟各,在演講中特別呼籲各國禁用「致命自主武器」。

 檢視梵蒂岡與美國聖克拉拉大學馬庫拉應用倫理研究中心,於2023年聯合發表的《在破壞性技術時代的倫理:實務路線圖》AI倫理指南中,即提出為因應AI技術在「道德灰色地帶」引發的規範與管制難題,應該在AI、機器學習、加密、追蹤、人臉辨識等範疇上,堅持嚴格的道德標準。顯見未來如果無法建立明確的制度規範,極易成為各國軍備競賽和地緣政治緊張的導因,同時增加誤判導致衝突的可能性。

 聯合國作為全球最具指標性與代表性的國際組織,已成立約40名以技術、法律與個資保護為主要專業的專家小組,積極參與AI技術管理的討論。此外,美國雖然致力於AI戰力發展,也同樣關注AI技術的潛在風險,並強調人類在所有關鍵決策和戰略武器庫中,必須具有主導地位,方能確保AI技術的運用既負責任又高效。進一步檢視2023年11月公布的《數據、分析與人工智慧應用戰略》文件,內容也承諾將遵守法律、政策和價值觀,審慎地開發AI能力。

 此外,歐盟也正積極推動相關法規和協議,包括全球首部《人工智慧法案》,明確以風險程度高低分類AI系統,並且採取相應的監管策略。尤其在AI技術武器化風險方面,歐盟強調必須採取嚴格的管制措施,確保這些技術被謹慎地使用,且將與歐盟以外的其他國家合作,持續完善AI技術監管規範,確保符合國際法,特別是在武裝衝突中的應用。

 儘管國際社會在規範AI技術軍事應用方面已經取得一些進展,但仍然面臨了諸多挑戰,其中以人類倫理道德認定標準,以及決策承擔責任的問題,最受矚目。受到國際法對AI自主武器系統的監管尚不完善,以及AI技術軍事應用的不可預測性,猶待國際社會建立合作共識,制定符合時代需求的規範,讓這項尖端科技在為人類帶來創新突破的同時,不會成為失控的危險因素,造成難以挽回的遺憾。

 綜言之,在可見的未來,科技與國際法規的相互對應,將是保障國際秩序的重要課題。我國在全球科技創新領域占有舉足輕重的地位,不僅需關注全球AI技術發展趨勢,更應積極參與國際對話與合作,貢獻智慧經驗,共同推動AI技術在軍事領域的合規應用,並善用AI技術,確保亞太地區的和平與安全。


文章回應

目前尚無回應,成為第一個回應的人吧!

回應本篇文章! (以下回應不會連結到FaceBook)(言責自負,請勿涉及人身攻擊,以免挨告!)

尚未 登入會員 ,無法回應!

gotop