战斗机器人对伦理道德提出重大挑战 进行道德和法律约束非常有必要
扫描二维码
随时随地手机看文章
据报道,美国是当前军事人工智能实用化的先驱,战斗机器人领域也屡屡“露脸”。在这个竞争对手面前,俄罗斯并不甘示弱;它最近声称,在2025年前完成组建战斗机器人部队计划,然后将这一新型部队纳入俄军管理体系。
早在1990年,中国科学家及未来学家周海中在经典论文《论机器人》中曾经预言:21世纪将会出现威武雄壮的机器人部队。如今种种迹象表明,他的这一预言似乎要成为现实了。毫无疑问,未来战争中,机器人部队将成为作战的主力,其威力远远超过人类的力量。
近年来,一些有关“战斗机器人”(也称“杀手机器人”或“自主性武器系统”)可能给人类带来威胁的声音时有出现。如美国微软总裁布莱德·史密斯最近就表示,战斗机器人即将出现,人类社会需要寻找对策。他指出,需要制定一项新的国际公约来规范战斗机器人技术的使用。随着战争中战斗机器人的大量投入使用,一些公认的战争伦理将受到挑战和冲击。
非政府组织“杀手机器人禁令运动”从人道主义观点出发,主张制定禁止研发战斗机器人的公约;目前,该组织的参加者包括来自57个国家地区的113个非政府组织。另外,许多科技人员也主张制定有关的公约;他们认为随着未来社会的不断进步,战斗机器人所产生的问题可能会有所减少,但这些问题对国际人道原则的冲击仍将存在。
拥有先进机器人技术的美国、英国、俄罗斯、以色列等均拒绝禁止战斗机器人研发,这些国家已做好组建和部署战斗机器人的准备。自2000年以来,美国部署了数千个装备机枪的战斗机器人,每个机器人都能够定位目标并瞄准它们,而且不需要人为的参与;而战斗机器人初次亮相是在阿富汗战场上,并在伊拉克、巴以等战斗和冲突现场偶露峥嵘。
有俄罗斯媒体报道说,俄军已将部分新研制的战斗机器人送到叙利亚接受实战检验,其中就包括了 “天王星-9”大型履带底盘机器人;由于战斗机器人不怕伤亡,因此战斗进程大大加快,俄叙联军在战斗机器人后方发动大规模攻击给叛军造成了极大的杀伤。俄表示,未来俄罗斯将大力发展无人战斗机器人,计划2020年到2023年实现战斗机器人普及化。
美俄英以等在战斗机器人方面的军备竞赛不仅引起了国际社会普遍担忧,而且对伦理道德问题提出了重大挑战。有专家发出警告,由于世界上多个国家不顾法律和道德后果加紧开发战斗机器人,一场机器人军备竞赛正在展开。随着人工智能的不断发展,很可能就会出现完全自主的战斗机器人;这令人想起科幻电影中的“终结者”之类的幻想事物。
英国科学家诺埃尔·夏基说,他对美国、俄罗斯等提出的机器人计划进行研究后感到“很害怕”。夏基最担心的是,机器人今后将自己决定何时“扣动扳机”,而“机器人对于为什么要这样做没有判断能力”。为此,他对使用机器人提出警告,建议为战斗机器人设定道德规范,并建议各国政府和军用机器人研究者应重新考虑目前的研发计划。
虽然教机器人在战场上如何行动,看起来可能很简单,因为各国会遵循国际商定的法律制定的交战规则。但是科技人员并不能预见战场上可能会出现的每种情形,正如十诫不能涵盖每种道德模糊的情况一样。因此许多科学家认为,必须对战斗机器人提前设定严格的“密码”,包括伦理道德、法律、社会以及政治等因素,否则整个世界都有可能毁于它们的钢铁之手。
此外,俄裔美籍科幻小说家艾萨克·阿西莫夫的“机器人学三大法则”也可能成为未来战斗机器人的伦理及安全准则。随着机器人的用途日益广泛以及人工智能的不断进步,他的机器人三大法则发挥着越来越重要的作用,以至有人称之为“机器人学的金科玉律”。但随着战争中致命自主武器的大量投入使用,一些公认的战争伦理将受到挑战和冲击。
开发致命自主武器的技术正面临越来越大的公众强烈反对,国际社会也要求有关机构尽快制定一个战斗机器人伦理准则。几乎所有的科技人员都认为,制定战斗机器人的伦理准则是很有必要的,以免以后引起不必要的战争纠纷。美国麻省理工学院法律与伦理专家凯特·达尔林最近指出,“要尽快制定战斗机器人的伦理准则,并做好这方面的风险分析及应对策略研究。”
目前,一些国家已经提出,给战斗机器人制定国际法和伦理准则,以约束其战场行为。2013年5月27日,联合国人权理事会例行会议也指出,将战斗机器人从远程遥控发展至自动判断敌情、杀死敌人,可能误伤准备投降的士兵。战斗机器人不仅使战争中遵守国际人道法变得更为困难,而且把是否杀害人类的判断交给机器更是“道义责任的缺失”。这就告诫我们,既要利用战争伦理维护自己的利益,又要发展符合战争伦理规范的无人系统。
即使研发自主性武器系统或组建战斗机器人,也要把握住以人类生命观和价值观为导向的方法论,充分考虑人的良知和情感,警惕技术被滥用的潜在风险,避免出现伦理失常、安全失控、法律失准等问题。而对战争进行伦理和法律的约束及制衡,是人类社会长期努力的结果,也是人类文明进步的重要表现。