人工智能和网络安全有着什么样的联系
扫描二维码
随时随地手机看文章
(文章来源:3D沙虫网)
随着人工智能系统的知名度的提高,已经充满挑战的网络安全正变得越来越复杂。在AI和网络安全相交的地方,如果仍然可以解决潜在的陷阱,则可以更好地服务于整个社会,尤其是国家安全。
首先也是最重要的是AI系统本身的网络安全性。AI系统很容易受到其他计算机代码中存在的各种软件漏洞的影响。正如我们几十年来所看到的,黑客可以利用这些漏洞来达到自己的目的。没有理由认为黑客不会尝试对AI系统做同样的事情,也没有理由认为黑客有时不会成功。鉴于某些AI应用程序的风险很高,这种可能性尤其令人担忧。这不是避免使用AI的理由,但保持网络安全至关重要。
然而,仅以传统的软件漏洞来阻止我们的分析,就是要错过AI系统带来的大量网络安全风险。支持许多现代AI的神经网络体系结构非常强大,但是却带来了我们刚刚开始发现的新型网络安全风险。我们称该领域为对抗学习。
借助对抗性学习,黑客可以使神经网络犯下奇怪的错误,导致依赖于这些网络的系统发生故障或泄露机密信息。这是一个需要更多关注的领域。我的同事Jason Matheny是IARPA的前董事,安全与新兴技术中心的创始主任,他估计AI研究支出中只有大约1%用于安全性。那简直太低了。
其次,人工智能还可以改变针对常规计算机系统的传统进攻性网络攻击。现代黑客在许多情况下并不需要人工智能来达到目的。就是说,我认为值得一提的是,我们看到了一些最有效的网络攻击,包括Stuxnet,2016年乌克兰的停电以及2017年的NotPetya攻击造成了至少100亿美元的损失-具有某些形式的自动化传播和攻击能力。我可以想象一个世界,未来的网络运营将使用更复杂的自动化功能来完成特定任务,例如漏洞发现,目标选择,命令和控制以及攻击执行。
我怀疑这样的自动化可能会给面对复杂目标的老练黑客带来重大利益。在某些方面,与物理战相比,该领域自动化的可能性更高。无论飞机是由人还是由人操作,物理定律仍然适用,但是自动化的网络功能(如果足够复杂)可能比其以人类为导向的同行运行得快得多。但是,我强调,我们还没有看到实现这一结果。
这导致了分析的第三个领域:人工智能可能有助于网络防御的可能性。这个想法也是很多炒作和大量风险投资的主题。人工智能似乎确实可以通过多种方式来帮助保护计算机系统安全,既可以在黑客发现漏洞之前,也可以在检测到恶意代码的存在。但是,我们必须小心,不要让这方面的炒作超出现实。在评估该领域的网络安全进步时,我们应该将其与我们已经使用的技术(其中许多已经涉及自动化)的基准进行比较,并了解(如果有的话)人工智能如何改善我们的防御能力。