人工智能决定物联网未来网络安全
扫描二维码
随时随地手机看文章
不久的将来,随着人工智能系统变得能力更强,我们会开始看到更多自动化与日益精密的社交工程攻击(social engineering attack,编按:通常是指利用小技巧来操弄人们的心理,以骗取对方的数据)。人工智能驱动的网络攻击崛起,预料会造成大量出现网络渗透、个人资料窃取,以及智能型计算机病毒迅速扩散等现象。讽刺的是,我们若要防御人工智能驱动的黑客攻击,最佳希望也寄托在使用人工智能上。但这非常有可能导致人工智能的军备竞赛,就长期来说,这造成的后果可能非常棘手,特别是当政府重大机构也加入了网络战争。
我的研究领域介于人工智能与网络安全的交会处。其中我特别专注研究,如何不让人工智能系统沦为不良行为的受害者,以及如何不让民众受到失败或恶意的人工智能所伤害。这项工作落在更广大的人工智能安全架构下,尝试创造有杰出能力,同时又是安全且有益的人工智能。
目前已有许多文章探讨可能伴随“真正的人工智能”而来的诸多问题,有可能是来自这类发明造成的直接冲击,也可能是程序设计人员失误导致的影响。然而,科学文献对恶意设计与人工智能黑客攻击的探讨明显不足。我们可以这么说,有关恶意的智慧所造成的危险,任何事都是可能的。根据博斯特伦(Bostrom)的正交理论(orthogonality thesis),人工智能系统可能会出现各种智能程度和目标的组合。这些目标,可透过最初的设计或透过黑客入侵来导入,也可以在之后才导入,也就是以现成的软件来“轻松新增自己的目标”。结果就是,人工智能系统可能尝试造成前所未见的破坏,或者,这样的破坏是受到过往事件的启发,而这些都取决于人工智能系统执行的是谁的命令,下指令的人可能是政府、企业、反社会人士、独裁者、军事工业复合体、恐怖分子等。
即使是今日,人工智能可以用来防卫、也可以攻击网络基础设施,并且能增加黑客可锁定的攻击面,也就是黑客有多少个方式可选择用来侵入某个系统。我预期,未来随着人工智能能力的提升,它们将达到、进而超越人类在各个领域的表现水平,我们已陆续在各种游戏如西洋棋和围棋,目睹这样的情况上演,同时,这现象也出现在重要的人类工作中,像是投资和驾驶。对企业领导人来说,重要的是要了解,未来的情况与现在关注的事项有什么差异,以及该如何因应。
如果今日某个网络安全系统出错,造成的损害可能让人感到不愉快,但大部分的情况都还可以容忍,例如可能有人损失金钱或隐私。但就人类层级以上的人工智能来说,后果恐怕不堪设想。人工超级智能(superintelligent AI, SAI)系统的单一错误,恐怕就会造成生存风险事件,也就是可能破坏全球人类的事件。这种风险很严重,因为事实显示,全球科技和物理界最聪明的人士,包括史帝芬.霍金(Stephen Hawking)、比尔.盖兹(Bill Gates)、伊隆.马斯克(Elon Musk),都曾担忧人工智能有可能演进到人类无法掌控的地步。
当今日的一个网络系统出错,通常还有机会修正,或是至少在下一回做得更好。但在人工超级智能安全系统下,失败或成功是完全不同的两回事。你要不就是有一套安全、可控制的人工超级智慧,要不就是没有。一般来说,网络安全的目标,是减少成功攻击单一系统的次数;相反地,人工超级智能的目标,是要确保没有攻击能成功避开已运行的安全机制。特别是脑机接口(brain computer interface)的崛起,会为人类黑客与人工智能黑客,创造梦幻的攻击目标。脑机界面已不再那么遥不可及,它们已应用在医疗装置和游戏上了。如果成功侵入脑机接口,盗取的不只是关键信息,像是身分证字号或银行账号,还有我们内心深处的梦想、喜好和秘密。这可能会对个人隐私、言论自由、平等机会和各种人权,造成空前的新危机。
有人建议,企业领导人应熟悉最尖端的人工智能安全与安全研究,可惜,目前这些研究的情况与1990年代的网络安全状态类似,也类似当前物联网(Internet of Things)欠缺安全的状况。领导人掌握更多知识,就能合理考虑,如何为自己的产品或服务添加人工智能,才能强化用户体验,同时,也能衡量让用户面临额外数据外泄与可能危险的潜在成本。聘请专门的人工智能安全专家,可能是重要的下一步,因为大部分网络安全专家,都没有接受过预期或防止人工智能系统受攻击的训练。我期待,持续进行的研究,会提出新的解决方案,以便安全地让人工智能纳入市场。