人工智能将代替核武器?
扫描二维码
随时随地手机看文章
斯蒂芬·霍金、马斯克等人曾在国际人工智能联席会议上,支持通过禁止不受人类有意识控制的进攻性自主武器,来阻止人工智能武备竞赛的提议。笔者认同他们的观点,也以为在必要时应签署一个公约来约束人工智能军事化。
人类今天要捍卫自己,可利用的武器已经太多了,对于核武器的管控早已是大题目,我们并不需要在常规武器之外,还把人工智能用于武器。
人工智能最大的价值在于低本钱、高效率、密集性,通过大数据、智能学习迅速晋升其能力。人类对人工智能的掌握和控制力又是薄弱和未知的。今天已经有大量的无人机、智能机器人被用于军事步履,而未来所谓“不需要人类干涉干与就能选择目标和交战的武器”,对于人类社会产生的威胁变得不可预知。表面上,这些智能机器人或是无人机作战,会减少士兵的伤亡,但是这些智能机器人和无人机的攻击对象是谁?主要仍是人类。
人工智能武器最复杂的题目,在于它的廉价与不可控。不像核武器制造需要极高的技术,很难获得的原料以及高昂本钱。人工智能武器便于大规模出产,并通过多种渠道畅通流畅。最近我们已经看到在叙利亚战场泛起了由民用无人飞机改造而成,携带了榴弹攻击型的无人机,一架无人机和一支步枪的价格相近,可以大批量出产,很轻易获得。
人工智能武器的不可控性还在于,即使由技术大国出产出不需要人类干涉干与就能选择目标和交战的武器,但这类武器受人类控制的可能性是未知的,在大量人工智能参与,拥有了强盛的学习能力之后,它会怎么选择攻击目标,我们全无所闻,无人能保证它会被有效控制,不会人为复制。
因此,在人工智能武器还没成为下一个“原枪弹”之时,大国首先需要担起责任,在国际上形成一个类似于禁止化学和生物武器国际协定一样的公约,禁止把人工智能用于军事,而不能单靠科学界的“良心”。假如有一天,大量小型、低本钱、不可控的杀人机器泛滥成灾,甚至泛起人工智能武器逃避人类监管的情况,再谈治理和控制已经太晚了