机器人成战场的“大杀器”,人工智能、无人机等多种技术在其中
扫描二维码
随时随地手机看文章
古往今来,人类聪明才智的结晶,总是被优先用于军事领域,以提高杀人效率。
上世纪70年代以来,几乎所有高新技术,譬如计算机、微电子、精确制导、电子对抗、推进技术,以及生物材料、纳米技术等等,无不优先用于军事,今天深度侵入我们日常生活的互联网,一开始就是美国军方的通讯技术。
但是像美国这样的军事强国,除了军事科技全球首屈一指,每场战争胜算极大之外,却还面临这样的问题,即“将别人的子女送上战场的总统,必须公开证明其正当性,负责拨款和宣战的国会也一样。”
也就是说,纵然总统和国会拍着胸脯保证每战必胜,但是在其国内,还必须办完一道手续:你要把别人的孩子送上战场,让他们去送死,你必须给出一个正当理由。如果民意反对声音太大,这个仗说不定就打不成了。
▲新一代美国军用战斗机械狗BigDog
在既不能变更美国制度,却又处在一个高科技爆发时代,突破民意障碍的办法,就是研发机器人士兵,让他们去完成打仗的任务,这样,反战的民意大概也就无话可说了吧。
在既有民意压力又有科技出路之下,美国军方在军事机器人方面的研发投入和应用,可谓不遗余力。上海人民出版社的《谁为机器人的行为负责?》([意大利]乌戈·帕加罗著)一书提供的数据显示:
就研发而论,军事机器人科技是目前最具活力,也是资金最充足的机器人研究领域之一,美国机器人学一半以上的人工智能研究和发展,由军方资助。
▲美国波士顿动力公司新研发的机器人已经可以后空翻了
就使用而论,以军事无人机为例,在2003年年,美军进入伊拉克时,地面部队还没有无人机系统;到2004年,美军已经有150套无人机系统,2005年猛增到2400套;2009年,库存量达到12000套。军事装备的智能化、自动化程度大幅度提升。
有数据显示,从2011-2020年,美国在无人机研发方面投入的资金占全球56%,中国12%,以色列9%,俄罗斯8%,泛欧3%,英法意各2%。
这一长串数据,可以变换为具体场景——网上流传的视频显示,美军无人机在高空通过红外线把地面的恐怖分子看得一清二楚,操纵无人机的军人坐在有空调的办公室里,按动一下按钮,那些恐怖分子就被一个一个清除了,同时,还可以看到恐怖分子惊慌失措,躲躲闪闪,但最终还是被一个个歼灭。
▲人工智能无人机杀人机器
相信绝大多数人都很赞同以这种方式进行反恐战争,并对机器人士兵出现在未来战争中抱有很高的期待。
但是有没有想过,如果国与国之间发生战争而不是针对人神共愤的恐怖分子,那么大规模的机器人士兵进入战场,会不会影响(并且已经影响到)到许多关键领域——战争法、国际刑事和人道主义法以及宪法。也就是说,战争的规则是不是显得更为重要?
02
说到战争要讲规则,对今天的中国人来说是很陌生的,因为战争讲规则而被嘲笑的宋襄公,至今还是一个小丑式的历史人物。
公元前638年,宋襄公讨伐郑国,楚国人准备通过进攻宋国,救援郑国。这年初冬,宋襄公与楚军在泓水交战。宋军已经摆好战阵,而楚军却还没有全部渡过河,随军的司马建议说,他们人多我们人少,他们正在渡河,您下令马上进攻吧。宋襄公说,那不行。
等到楚军渡完河还来不及摆好阵势,司马又建议进攻,宋襄公还是回答,那不行。等到楚军摆好阵势,宋襄公才下令进攻,结果大败,宋襄公的大腿还被射了一箭。
▲宋襄公充满仁义的做法最终被楚国打败
宋国人都埋怨宋襄公,宋襄公却说:“仁德的君子打仗,不攻击受伤的人,不攻打头发花白的人,古代那些带兵打仗的,都不依靠关山险隘取胜,宋国即便灭亡,也不会去进攻没有摆好阵势的敌人。”
打仗讲什么规则?胜利就是唯一的规则,为了胜利,可以放弃一切,包括规则本身。这就是宋襄公被今天的人视为迂腐的代表,被谴责嘲笑的所有原因。
但其实,宋襄公并不迂腐。结合宋襄公的其他政治行为来看,他能够灵活处理很多复杂棘手的政治关系,譬如为了笼络东夷人而不惜用人祭;曹国不服,就动用武力攻打。
宋襄公在泓水之战中表现得文绉绉,乃因楚国地处南方被视为蛮夷之邦,文化落后,不属于“诸夏”,而宋国乃殷人之后,文化先进,当坚守礼仪,此外,当时各国正在形成一种新的普世观念,即对礼仪的尊崇,而宋襄公在敌强我弱,胜算极小的情况下,正打算通过礼仪-规则的坚守,树立一种文化上的优势地位,从而成为诸侯国“礼仪英雄”。
但正如有学者所认为的那样,军事上的小国试图凭借文化大国的优势取得伟大奇迹。宋襄公的失败,是过高估计了文化力量在实际政治事务中所能发挥的作用。
后世对宋襄公的批评,多集中于其德行多寡和个人品行。近代以来,随着社会动荡加剧,战乱不断,世人才逐渐将宋襄公的礼仪行为与战败后果勾连起来,直斥其蠢货、迂腐。
03
撇开近代的观念因素,可以说,宋襄公试图通过“礼仪”这种外在的规则形式,向世人阐发一种价值观,并且意图用价值观来取得战争所不能取得的优势地位,使楚国的战争不仅失去理由,而且所得甚少。
发动战争一定需要理由吗?对某些国家来说,恐怕不需要,或者甚至不必告诉他的人民,但是如果战争的发动不是政客的密室阴谋,而是由法学家来决定,那么正如《谁为机器人的行为负责?》所说,过去20年,法学家们事实上已经讨论了能够使一场战争正当化的若干条件,它包括:是否有一个正当的主张、暴力是否作为最后手段、是否有成功的可能性,以及武力的合比例性使用。这其实就是讨论为何要发动战争,以及如何进行战争的规则问题。
譬如,发动战争不需要正当理由吗?现代战争不是为一家一姓而战,而是牵涉全体国民的福祉,它必须经过民意这一关,民意的讨论和同意,是正当性的前提和基础。而如果机器人士兵进入战场,与之相关联的问题是,机器人士兵导致的非正常死亡,由谁来承担责任?是制造者的责任,还是使用者和指挥者的责任?
又譬如,现代战争的正义性还体现在在一般都很注重区分战斗人员和平民,尽量不伤及无辜平民的生命财产安全,而美军在中东等地的军事行动经常伤及平民,成为国际舆论诟病的焦点之一,当然,恐怖分子更是经常以平民为袭击目标,更是激起全球愤怒。而进一步思考就会发现,如果让机器人士兵加入战斗,它如何区分战斗人员和平民?会不会一体消灭?
还譬如,武力使用的力度。机器人士兵如何判定一个敌方人员是否有投降的意图?对一个已经丧失部分反抗能力的敌方人员,如何判定应该击毙还是击伤?这就是战场上武力的合比例性使用问题。进而言之,正义的战争,要求“发动战争达成的善,必须与发动战争的恶之间合比例”。
为此,《谁为机器人的行为负责?》一书的作者乌戈·帕加罗认为,在机器人士兵投入战斗之前,必须遵守的规则,通俗地讲,包括:
人类必须为致命性的机器人士兵的行为负责;
攻击目标必须是有军事意义的;
能够区分出合法的战斗人员;
以及不能过分使用武力。
等等。
04
现代战争对具有武器绝对优势的一方来说,简直就像玩电脑游戏一样,具有绝对优势的一方,因此大大降低了发动战争的门槛,战争的潜在随意性大大增强。尤其是诸如机器人士兵的加入,更加使武器具有绝对优势的一方,伤亡人数大幅下降。
有统计称,从2006年到2018年为止,美军总共有15851名现役和预备役军人非正常死亡,损失不可谓不高。但是,美军72%的死亡,共有11341人,是在“和战争无关情况下”发生的,它包括训练事故、航空事故或车祸等等,以及有大约14%的意外死亡和药物滥用直接相关,还有4%即634人是自杀身亡。
▲《谁为机器人的行为负责?》,[意大利]乌戈·帕加罗著
与之相对的是,对手的战死率通常都是上述数字的10倍以上。如果放任机器人士兵进入战场而毫无规则可言,则武力使用会更加随意,正义必受侵蚀。人类经过数千年相互残杀才出现的一点人道主义微光,必将很快熄灭。
那么,有没有可能为未来机器人进入战场订立规则呢?完全是有可能的。实际上,过去十多年间,国际协定已经控制了化学、生物和核武器、地雷等领域的科技进步,同样,作者认为,亟需一项类似的联合国发起的协定,来明确规定正当使用机器人士兵的条件。
今天的各种科技,正在最大化地放飞人类的智谋。这种智谋精进的另一面是,同类相残从来没有像今天这么容易,而且可以想见的是,未来会更加容易。如果没有一种宋襄公精神的指引,毫无疑问,人类必将堕入深渊。
谁为机器人的行为负责?答案显然是人类。但是面对机器人,各色人等的各种责任,除了本文重点讨论的机器人士兵之外,《谁为机器人的行为负责?》一书还例举了包括合同法中的外科手术机器人,以及侵权法中的人工智能雇员等等27种假设情况,它们都没有明确答案,但它们在未来必定深度进入和影响我们的生活。