当前位置:首页 > 智能硬件 > 人工智能AI
[导读] 9月14日,沙特国家石油公司,即阿美石油公司的布盖格炼油厂及胡赖斯油田两处石油设施遭到无人机和导弹袭击,导致沙特每天大约570万桶的原油产量暂停供应,这占到了沙特产能的50%,也相当于全球5%的

9月14日,沙特国家石油公司,即阿美石油公司的布盖格炼油厂及胡赖斯油田两处石油设施遭到无人机和导弹袭击,导致沙特每天大约570万桶的原油产量暂停供应,这占到了沙特产能的50%,也相当于全球5%的石油日消耗量。无人机袭击的一个直接后果,是国际油价应声而涨,16日一度飙升近20%。

9月18日,沙特国防部公布石油设施受攻击的详情。在此次袭击中,攻击方使用了18架无人机和7枚导弹。

此前,中东地区的无人机大战已经在各派之间频频展开。无人机(UAV)是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,或者由车载计算机完全或间歇自主地操作的飞行器和武器,因此它是AI产品。也许,无人机的加入战争和进一步改进,将与核武器的攻击力旗鼓相当,甚至更厉害。

无人机加入战争意味着,AI深度加入战争的时代已经来临,且将导致重大的伤害和全面的战争升级,AI不介入军事或战争的承诺已沦为笑话,潘多拉的魔盒已经被打开。

无人机加入战争是对人类已经意识到并愿意遵循的伦理的违背。人类在20世纪的核武器研发与应用曾一度是无意识的。提出了曼哈顿计划的爱因斯坦后来曾说,如果知道原子弹能造成如此大的伤害,是决不会写信给美国总统罗斯福建议研发原子弹的。

当今,全球最大的一些科技公司都提出了关于AI的伦理原则,其共同点就是不用于军事和战争。2017年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”(恐怖武器或智能武器)。此后,美国太空探索技术公司(SpaceX)CEO马斯克与全球2400名机器人研发人员在斯德哥尔摩宣誓称,“绝不参与致命性自主武器系统的开发、研制工作。”微软员工也提出,反对参与美军项目,因为这不符合公司AI伦理原则。

2018年4月,3000多名谷歌员工向谷歌首席执行官桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能Project Maven项目。这个项目是利用机器人深度学习和人工智能分析、应用计算机视觉技术,帮助美国国防部从图像和视频中提取识别重点对象目标。由于员工的反对,谷歌被迫做出决定,在Project Maven合同2019年到期后,不再与五角大楼续签。

然而,仅仅一些人和一些公司遵守“AI不加入军事不用于战争不杀人”的伦理准则是不够的,现在无机人机频频参与战争,袭击人类住所与重大经济目标,已经说明当今AI的伦理是非常脆弱的。2019年4月7日,谷歌新成立的AI伦理委员会只存活了不到10天即宣告解散,原因之一是,无人机公司首席执行官吉布斯(Dyan Gibbens)加入伦理委员会后,重组了自己公司的旧部门,试图将AI用于军事领域。这一行为遭到了谷歌员工的反对,这说明,由公司发起的伦理委员会根本无法阻止这一势头。

军事人员与一些科研人员支持AI武器的理由是,AI介入战争是为了避免大规模伤及无辜,如像核武器不分青红皂白地杀死平民和常规武器地毯式轰炸滥杀无辜。所以,如果真是为了和平,就用精确制导武器消灭敌人来制止战争。因此,AI武器的出现和加入战争,是战争的第三次革命。

然而,实际上,无人机加入战争只会更肆无忌惮地袭击军事目标以外的民用和经济目标,现在,沙特两处石油设施遭无人机攻击已是最好的证明。尽管这次袭击未造成人员伤亡,但对沙特经济和全球石油供应的影响是持续而深远的,这也向世人公开展示,要想取得军事胜利与实现政治目标,使用更新更好的AI武器是首选。

无人机会加剧未来战争的残酷程度。2017年11月12日,一部由美国加州大学伯克利分校的教授斯图尔特·拉塞尔与生命未来研究所合作拍摄的一部虚构影片开始在网络上传播。影片里,一种手掌大小的无人机杀人武器(Slaughterbots)配备了面部识别技术并携带炸药,先由一架或几架无人机炸开围墙,后面的无人机进入大学和国会,通过面部识别,对准定的目标大学生与国会议员进行爆头屠杀。

虽然这只是虚拟场景,但在不远的未来,小型无人机都可以配备人脸识别系统及聚能炸药,在程序输入后,可根据命令单独作战,或集群作战,寻找和杀灭已知的个体或类似具有统一特征的人群,让每个人无法逃脱大屠杀。这样的AI武器比起原子弹来甚至更为厉害——至少原子弹爆炸时人们还有地下掩体可以保护,但在未来,任何人都无法逃脱AI武器的精准追杀。

依靠人脸识别技术追杀人的无人机,也还属于初级的人工智能武器。根据对人工智能的分类,目前的AI武器可以分为三类。一类是完全由人类决定并由人远程操作的无人机,现在美国的MQ-1“捕食者”侦察机就是代表。

第二类是机器人可以自己做一定的判断,但在执行任务期间,人类可以中断或取消无人机的任务,如以色列的“哈比”自杀式无人机就属于这一类。加州大学的拉塞尔教授所演示的无人机炸弹也属于这一类。上述两类武器都已经用于实战。

第三类,是人类完全不参与决策过程的自主型杀手无人机或机器人。这类机器本质上还是要由人来决定,即由人编程并在一定程度上让无人机自己决策,但是,这类无人机的最大隐患在于,可能出现程序错误而导致误伤,自主判断做出人类意想不到或不会让其进行的行动,如扩大打击范围和强度。另外,如果这类武器扩散到恐怖分子手中,会造成更大灾难。

AI武器的这三种分类也来源于人工智能的三种分类:弱人工智能,只能完成某一项特定任务或者解决某一特定问题的人工智能;强人工智能或通用人工智能,可以像人一样胜任任何智力性任务的智能机器;超人工智能或超级智能,可以像人类实现智能上的生物进化,对自身进行重编程和改进,即“递归自我改进功能”。

目前,在技术上,用超人工智能来打造杀人武器尚难以实现,但现有的两类人工智能武器已经显示了比常规武器更大的杀伤力,而且,由于可能出现程序错误,谁也不能保证无人机和机器人武器不会滥杀无辜。现在已经到了正视AI武器的危害并制定禁止AI武器规定的时候了!

迄今为止,联合国已经有《禁止核武器条约》《不扩散核武器条约》《关于禁止发展、生产、储存和使用化学武器及销毁此种武器的公约》《禁止细菌(生物)及毒素武器的发展、生产及储存以及销毁这类武器的公约》等条约,唯独没有禁止AI武器的国际法。

美军曾明确表示不会禁止使用无人自动化武器,包括无人机、无人船舰等。他们提出的一个相当有力的理由是,当人们尚未完全了解AI武器时就要求禁止使用它,此举无异于杞人忧天。实际上,美军非但不会禁止,还会大力推广AI武器的使用。

在这样的背景下,即便国际社会愿意探讨控制与禁止AI武器,可能也不会获得广泛支持和达成共识。人们还担心,制定了禁止AI武器的国际公约,可能也无法阻止有人研发AI武器和使用AI武器。AI武器对未来人类战争的影响目前还难以估量,但必将是重大而深远的。

来源:中国新闻周刊

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭