陈聪:军事智能化的法律应对

陈聪:军事智能化的法律应对

摘要:大数据、云计算、物联网、深度学习,以及传感技术、无人技术、脑控技术等在军事领域的应用,正在强力推动战争形态向智能化转变,这必将使未来战争场景发生翻天覆地变化。军事智能化的飞速发展,也将直接对现行相关法律制度带来冲击和挑战。

党的十九大报告指出,要“加快军事智能化发展”。军事智能化是机械化、信息化之后军事领域发展的新趋势和新方向,是世界军事技术的新的战略制高点。大数据、云计算、物联网、深度学习,以及传感技术、无人技术、脑控技术等在军事领域的应用,正在强力推动战争形态向智能化转变,这必将使未来战争场景发生翻天覆地变化。军事智能化的飞速发展,也将直接对现行相关法律制度带来冲击和挑战。

“战斗员”身份的判定

“战斗员”身份在武装冲突法体系中具有重要意义,是界定参战者权利义务的重要依据。当前,越来越多的智能军用机器人出现在战场上,它们具有持续作战时间长、反应能力快、生存能力强等特点,在替代人类执行特定军事任务方面具有独特优势。特别是随着军事智能化的进一步发展,军用机器人的智能化程度会越来越高,通过模仿人类神经元之间的信息传递功能,建立人工神经元网络结构,利用计算机模拟人类的认知过程和决策过程,可以像人类一样观察、学习、组织语言、处理数据、得出结论。甚至,在深度学习模型的应用下,智能可以通过捕捉经验来学习知识,在复杂系统中实现非常接近于人类的认知方式,而不仅仅是简单地利用逻辑关系、因果关系来进行形式判断。部分领域里,人工智能的思维能力可以达到或者超过人脑。军用机器人原本应当属于武器的范畴,但其向高度类人发展,使其在战场上的身份定位越来越模糊。

《日内瓦第一附加议定书》第43条对“战斗员”的定义是:“有权直接参加敌对行动的冲突一方的武装部队成员(除第三公约第三十三条的规定所包括的医务人员和随军牧师外)”。从措辞上看,这一规定并未将战斗员的范围牢牢限定在自然人上,没有完全排除智能机器人作为战斗员的可能性。按照传统观点来看,军用机器人显然不符合当前“战斗员”的构成条件。但是,在未来军用机器人的智慧可能大大超过人类的情况下,是否应该赋予其作战主体资格便成为无法回避的重要问题。“战斗员”这一概念从产生之日起,就一直在发展演变之中。从1899年《海牙公约》提出“合法交战者”,到1907年《陆战法规惯例公约》明确提出“战斗员”的概念,再到1949年日内瓦四公约和1977年《日内瓦第一附加议定书》对战斗员范围的界定和扩展,“战斗员”所涵盖的范围越来越大,所保护的对象也不断增多。2016年欧盟委员会法律事务委员曾提交一项将最先进的自动化机器人的身份定位为“电子人”的动议。与之相类似,未来高度自主的军用机器人能否具有“战斗员”的身份,将成为难以回避的一个法律问题。

新型智能装备的法律地位

临近空间是介于普通航空飞机的飞行空间和航天器轨道空间之间的区域。其空气密度对于飞机等航空器来说过于稀薄,在减少阻力的同时也减少了对航空器的支撑;而对航天器而言,却又显得过于稠密,摩擦阻力太大,难以维持其第一宇宙速度的运行轨道。因此,传统的卫星和飞机都无法涉足这一特殊领域。临近空间飞行器具有目前飞机和卫星所不具有的功用,在执行相同任务时有得天独厚的优势,成为当前军事智能化应用的一个热点领域。但是,由于现行国际法律制度缺乏对临近空间的明确界定,导致临近空间飞行器的法律性质和法律地位并不明确。最直接的问题是,临近空间飞行器在临近空间飞行,是否侵犯他国领空?他国能否将其视为非法入境的军用飞机击落?由于外层空间和空气空间的划界问题一直没有定论,而临近空间作为空气空间和外层空间中间一个新的细分概念,必然导致国际法调整上的空白。临近空间飞行器的飞行是由国际航空法来调整,还是由外层空间法来调整,缺乏统一的认识。

无人水下航行器的应用也存在类似的问题。此类水下航行器可以自主控制和独立航行,灵活方便,可广泛用于执行扫雷、侦察、情报搜集及海洋探测等任务,还可能作为水下武器平台、后勤支持平台等装备使用。这类自主式无人水下航行器与传统概念上的船舶有着显著区别,它不悬挂旗帜,一般也不会搭载船员,其目的也不是为了在海洋中航行通过,而主要是在水下执行情报搜集、海洋探测等特殊任务。究其本质,它不是正常的通行船舶,而是在海中作业的机器人,无法拥有“船舶”的无害通过权、过境通行权、群岛海道通过权和公海航行自由等权利。

军事行动合法性的判断

为了协调武装冲突中“军事需要”和“人道要求”的矛盾,现代国际法形成了一系列规范武力使用的规则,如区分平民与战斗员、禁止攻击失去作战能力的人、禁止造成不必要伤害、军事必要和相称性原则等。军事智能化发展带来了“致命决策的去人类化”的特点,这对传统的军事行动合法性的判断提出了根本性的挑战。

智能化执行命令本质上是智能化系统通过复杂精密的运算进行行动选择,是对逻辑指令无条件的执行。这使得其行为受到算法和数据的双重制约,一旦数据出错或者算法遭到敌方攻击,智能设备很可能作出荒谬的选择。美军的“利剑”地面机器人在实战中曾经出现过这样的问题:3台“利剑”机器人在进攻一个据点时,其中一台机器人由于软件缺陷,竟把枪口瞄准了操作该机器人的军人,该军人对其发出“行动取消”的指令,失控的机器人仍然停不下来,美军只能用火箭筒将其炸毁。此外,在复杂多变的动态环境中,人工智能的认知能力虽然在有些方面强于人类,比如在情报分析、战斗反应等方面,智能化确实具有独特的优势;但是,在排除主客观复杂因素干扰等特定方面,人工智能依然逊于人类,易遭敌电子哄骗和电磁网络攻击,甚至被敌方所控制。这种犯错和被控制的可能性,使战争中的不确定因素大大增加。在智能执行指令的过程中,其运作过程以软件和代码为主,本质上还是数据处理,其本身无法真正产生内在的尊重生命的人道观念。虽然智能化可以大大提高军事打击的精度,避免战争中对平民和非军事目标的附带损害;但是,将智能设备投入战场,实际上一定程度上是把人类的人道主义关切交由系统和软件来判断,必然对当前武装冲突规则和国际人道法带来新的挑战。

战争责任的界定

智能化战争的条件下,在作战指挥过程中,智能执行指令与军人执行命令往往是相互交替或者相互交织在一起的。如果上级意志的传递在智能化这个环节上出了问题,责任如何区分界定成为一个新的问题。如果人工智能的程序或数据出了错,导致了对指令的错误执行,应该由谁来承担责任?比如,美国在巴基斯坦、也门进行的无人机精准轰炸,却造成大量平民死亡。

在不同的智能系统中,战争责任的承担还会有具体的差别。第一类是在网络、防空等防护领域,往往存在自主反应类的智能系统。这一领域对于反应速度的要求非常高,需要快速决策。由人类来决策反应往往是来不及的,那么实现智能化恰好可以发挥其优势。这一类智能执行指令发生错误,法律责任甚至需根据情况追溯至智能开发者。如果开发者在设计时存在故意或重大过失而导致错误发生,开发者也无法免除责任。如果由于开发者基于当时的认知局限,不可能预见到未来发生的状况,则是另外一个问题。第二类是与人类共同决策的智能系统。比如战场机器人,自身具有一定的自主决策能力,但同时也受到人类在后台的操控,通过系统的互联、互通、互操作能力共同决策。但是,战场上的目标稍纵即逝,需要快速敏捷的“立即响应”,一些智能机器人已经实现了从传感器到“射手”的自主同步。其接受人类指令进入战场,但在战场的一些行为并未经过操控者的确认。机器人接受指令并完成,操作者应当对机器人可能的行为负责。第三类是协助人类决策的智能系统。军事指挥决策领域中的人机协作非常广泛,这类智能系统本身不作出决定,而是辅助人类进行决策。比如美国的“深绿”计划和指挥官虚拟参谋,采用主要仿真技术,基于实时战场态势数据,通过计算机多次模拟仿真,推演作战方案的结果,预测敌方的行动和未来战场走势,引导指挥官做出正确的决策。在这类辅助决策性的智能系统中,智能主要起到的是提示和建议的作用,指挥员的指挥责任不可避免。智能错误能否成为责任阻却之事由,在不同的情形下不能一概而论,这也是一个有待解决的新问题。

(作者单位:陆军工程大学法学教研室)

责任编辑:佘小莉校对:郭浩最后修改:
0