牛津、剑桥、OpenAI联合发出AI预警《人工智能的恶意使用》
扫描二维码
随时随地手机看文章
无人车、无人机、视频生成……这些AI应用在让我们激动万分的同时,也有可能带来前所未有的灾难——如果无人车队被恶意操纵来撞你,该怎么办?这次让我们看看AI政策研究学者怎么说。
2月20日,26位来自牛津大学、剑桥大学、OpenAI、电子前沿基金会(一个非营利数字版权组织)、新美国安全中心(一家美国智库)等多个研究机构的研究人员发布了一份AI预警报告,针对AI的潜在恶意使用发出警告,并提出相应的预防及缓解措施。
新兴技术对人类安全的影响一直是个热门话题。牛津、剑桥、OpenAI这些重量级研究所此次发布的这份报告名为《人工智能的恶意使用:预测、预防和缓解》,预测了未来十年网络犯罪的快速增长、无人机的滥用、使用“机器人(bots)”操纵从选举到社交媒体等恶意利用人工智能的场景,号召政府及企业重视当前人工智能应用中的危险。
报告也建议采取以下干预措施以减轻恶意使用人工智能造成的威胁:
政策制定者和技术研究人员现在需要共同努力来理解和为应对恶意使用人工智能做出准备。
人工智能有许多积极的应用,但是是一把双刃剑,人工智能研究人员和工程师应该注意并积极预测其滥用的可能性。
人工智能应该从具有较长的处理风险的历史的学科(如计算机安全)中学习。
积极扩大参与预防和减轻恶意使用的利益相关者范围。
这份长达100页的报告关注与恶意使用人工智能特别相关三个安全领域:数字安全(digital)、物理安全(physical)和政治安全(poliTIcal)。它表明,人工智能会破坏规模(scale)和效率(efficiency)之间的权衡,并使大规模、精细目标和高效的攻击成为可能。
例如,自动黑客攻击,用于模拟目标的语音合成,使用从社交媒体获取的信息的精确目标垃圾邮件,或利用AI系统本身的漏洞等新型网络攻击。
同样,无人机和网络系统的扩散将允许攻击者部署或重新调整这些系统用于有害目的,例如让自动驾驶车队相撞,将商业无人机变为可以定位目标的导弹,或劫持重大基础设施以索要赎金——自主武器系统在战场上的崛起可能会导致失控。
在政治领域,借由详细的分析、有针对性的宣传、便宜且高度可信的虚拟视频,可以操控公众舆论,而这种操控的规模在以前是无法想象的。利用人工智能,可以大规模聚集、分析和处理个人信息,这可以实现监控,可能侵犯隐私,并从根本上改变个人、企业和国家之间的权力。
为了减轻这些风险,报告作者探索了几种干预措施,以减少与AI滥用相关的威胁。这些措施包括重新思考网络安全,探索信息共享的不同开放模式,促进责任文化,制定有利于安全防御的政策和技术。
报告作者之一,剑桥大学生存风险研究中心执行主任Seán Ó hÉigeartaigh博士说道:
人工智能是一个改变游戏规则的机器,这份报告已经想象出未来五到十年内世界会变成什么样子。
我们所生活的世界可能变为一个充满因滥用人工智能而导致的危害的世界,我们需要处理这些问题,因为风险是真实存在的。我们现在需要做出选择,而我们的报告号召全球政府、机构和个人的行动。
几十年来,人工智能和机器学习方面的宣传超过了事实。但现在不再是这样了。这份报告着眼于那些不再适用的做法,并提出了一些可能有所帮助的方法:例如,如何设计不易被攻击的软件和硬件,以及可以采取什么类型的法律和国际法规。
不过,在报告开篇,作者也承认:“对于人工智能相关的安全攻击和相应的防卫措施之间的长期平衡,我们并没有给出解决方案”。
网络上也存在着批评的声音。GigaOm评论员Jon Collins指出,对于所有提出的风险,报告并没有定量描述,而只是以“可能出现(plausibly)”的字眼概述,这不是对风险的科学描述方式。风险有多大?我们也不得而知。此外,报告中的许多地方也明确表示,“报告的多位作者对此持有不同观点”。所以就此看来,报告起到的唤醒作用可能远大于对实际操作的指示。