人工智能会成为杀人机器人吗
扫描二维码
随时随地手机看文章
还记得科幻电影《终结者2》里天网对人类的倒戈,以及《复仇者联盟2》里人工智能机器人奥创对人类展开的毁灭计划吗?为了避免这一天可能的到来,全球人工智能领域的研究人员 也不不断努力。
2018年4 月 4 日,3100 名谷歌员工联名发出公开信,要求谷歌退出美国国防部人工智能军事项目——Maven 计划。在这封谷歌员工联名信中,要求谷歌不但应立刻退出Maven 计划,而且应向所有人承诺,永远不会参与研发任何类型的战争科技。
几乎同一时间,韩国科学技术院大学与军工企业“韩华 Systems”合作研发自主武器,以便在无人控制的情况下搜索并消除目标,此举遭到全球50多名人工智能学者联名抵制。随后, 2018年4月9日,联合国《特定常规武器公约》政府专家小组在日内瓦召开会议,专项讨论“杀人机器人”可能带来的影响。据称,此次会议跟此前韩国科学技术院大学宣布开发“杀人机器人”有关。
那么,以人工智能为基础的军事系统,能否代替人类做出恰当的军事决策?人工智能与军事真的不能共存吗?
一、军事技术先行
在遥远的未来,人工智能也许会像一些科幻电影中描绘的那样,使后人类战争从科幻变成现实。目前,已经出现了一些趋势性端倪。
何为趋势性端倪?近年来人工智能在军事领域的应用已经越来越多,人工智能在某些领域已经表现了超越人类的能力,而这一趋势开始呈现了不可逆转性。在2016年举行的一次模拟空战对抗比赛中,人工智能系统通过灵活、迅捷的动作击败了具备更强武器系统的退役战斗机飞行员。 有专家表示,这个结果具有深远意义,就像一个象棋大师输给了电脑。
目前,在武器装备和指挥控制方面,人工智能主要体现在陆地、海洋、太空等各类作战机器人的研发应用和各类智能炸弹的研发领域。随着数据挖掘技术、大规模并行算法及人工智能技术的不断完善并广泛应用于军事上,情报、决策与作战一体化将取得快速进展。实际上,韩国科研机构研制的能在无人控制的情况下搜索并清除目标的自主武器就是典型应用,也是当前人工智能军事化的最主要应用。
能够自主运作的军用机器人被归为致命性自主武器系统(LAWS),目前 ,各国发展的无人飞行器、无人地面车辆、无人水面艇等能够自主运作的武器系统,在某种程度上都属于LAWS的范畴。这些武器装备体现出了较高的应用价值。 被人工智能技术赋能的军事机器人必将改变未来战争形态,促进军事理论、体制编制、作战人员、战法战术等多方面的变革,使未来战争呈现出“无人化”“智能化”的特点。
二、人工智能用于军事潮流势不可挡
在《终结者》《黑客帝国》《我,机器人》等这些经典科幻电影中,人工智能往往作为反面角色出现,并给人类带来极大危害。
在2017年的人工智能国际会议上,特斯拉首席执行官马斯克、苹果联合创始人沃兹、研发“阿尔法狗”的深度思维公司哈萨比斯等人签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。而刚刚去世的著名天体物理学家霍金也曾指出,他不认为发展人工智能一定能让人类朝好的方向发展,脱离人类控制的机器很难被阻止住。
虽然人工智能技术对于保障国家安全具有巨大潜力,但目前人工智能技术还不成熟,需要更进一步的研究。在研究过程中,人工智能技术表现出了危险性与未知性,比如无人驾驶汽车的伤人事故,而反人工智能军事化的思潮则反映了人们对这一技术前景的担忧、焦虑,甚至恐惧。
由于人工智能技术的发展局限,机器人可能将在环境或执行程序复杂的情况中出现失控现象,比如单独执行作战任务、人机深度交流等军用和民用领域。一个典型的例子就是2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至用火箭筒把它炸翻才化险为夷。
尽管人工智能在当下还存在种种问题,但反思技术的思潮在人类历史上技术革命时期都曾出现过,比如工业革命时期的卢徳运动。这一现象的本质原因在于技术异化对人类的威胁。目前来看,人工智能在军事领域的应用潮流势不可挡,在可预见的时期内,人工智能将在情报侦察、后勤保障、无人作战系统等领域发挥重要作用。
三、走出伦理泥潭
早在十年前,就有专家警示,已有越来越多的国家投入到军用机器人的研究与开发中去,世界已在不知不觉中滑进了一场机器人军备竞赛。
毋庸置疑,军事机器人相比于士兵主要在功能、体能、效能方面具有优势。军事机器人可以同时承担多项复杂任务,作战可以更加持久,在程序设定完备后能够高效精准达成目标,失误率较低。特别是,完全自主机器人具有持续作战时间长、反应能力快、生存能力强等优势,将会进一步增加战争的烈度与强度,与人类战士相比具有巨大的不对称优势。
然而,有关战争责任的伦理问题就出现了,到底参战的自主机器人是不是战斗员?又应当承担何种战争责任?如果军用机器人自己没有办法承担责任,是否需要其“代理人”对其战争行为负责呢?这又引发了新的问题,谁是无人化战争中军用机器人的“代理人”?到底是作战部队的程序开发与编写者呢?还是战场指挥官呢?相关战争责任的追究显然已变成一个十分棘手的问题。
如果人工智能应用于军事是不可逆转的科技浪潮。那么,我们应该如何将可能产生的负面影响降至最低呢?对此,首先要坚持人机结合、以人为主的原则,人类应当保证对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。另外,应当加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推动人工智能技术的军事应用。