人工智能需要安全走向前沿
扫描二维码
随时随地手机看文章
特斯拉机器人助手的引人注目的揭幕引发了关于人工智能安全以及如何在城市街道和工厂车间释放自动化系统之前对其进行测试和验证的持续辩论。
在第一轮 AI 夸张中的恐惧集中在恶意的、自我复制的、类似 HAL 的机器上,最终压倒了它们的创造者或在战场上不受控制地漫游。此后,辩论变得更加务实,对安全的关注更加尖锐和受欢迎。具体来说,我们如何以允许人类操作员信任应用程序中的自主系统的方式促进人工智能安全,这些应用程序目前仍远未完成关键任务,需要 99.999% 的可靠性?
专家指出,监管机构采取的积极的第一步是认识到涉及使用驾驶辅助系统的车辆的人工智能事件是“碰撞”,而不是“事故” 。“汽车行业正在走向'崩溃',因为这是某人的错或某人的错,”朱利叶森说。“‘事故’这个词经常让人搭便车。”
在一系列关于人工智能安全的政策简报中,乔治城大学安全与新兴技术中心的研究人员试图确定实现更安全人工智能系统的工程要求。
“今天的尖端人工智能系统在很多方面都很强大,但在其他方面却非常脆弱,”作者 Zachary Arnold 和 Helen Toner 指出。“他们通常缺乏常识,很容易被愚弄或破坏,并以意想不到和不可预测的方式失败。
研究人员总结说:“通常很难或不可能理解他们为什么会这样行事,”并补充说,对易出错的人工智能系统的信任程度“可能会产生可怕的后果”。
一个核心问题是理解黑盒 AI 系统的功能——或者被称为 AI 的“可解释性”,就像数学老师要求学生“展示他们的作品”一样。
因此,人工智能研究人员提议建立一个国家人工智能测试平台,开始设置参数,以确保基于深度学习的人工智能系统安全。“今天,没有普遍接受的安全人工智能定义,也没有标准方法来测试现实世界人工智能系统的事故风险,”作者阿诺德和托纳总结道。
虽然有经过验证的方法可以测试用于故障安全应用(如飞机自动驾驶仪)的早期专家系统,但没有人工智能等价物。“这些方法不适用于深度学习,”托纳在接受采访时强调。
“我们认为,当我们开始在错误或故障可能非常严重的地方[使用]这些系统时,应该投入更多的精力来开发新的方法,”她补充道。“我们有办法提前测试 [AI 系统],并确保我们知道它们能做什么和不能做什么,以及它们什么时候可以工作,什么时候不能工作。”
像特斯拉这样的先驱公司可能会接受这种观点,即使他们用特斯拉机器人这样的原型推动人工智能技术的发展。特斯拉首席执行官埃隆马斯克表示,机器人原型可能会在明年推出。
在宣传他的特斯拉自动驾驶仪“出奇地好”的可预测性的同时,监管机构开始质疑这一断言,马斯克承认在汽车制造商最近的人工智能日活动中宣布特斯拉 Bot 会产生意想不到的后果。
特斯拉机器人“当然是为了友好,”马斯克保证道。“我们将其设置为——在机械层面,在物理层面——你可以逃避它,”一项引起一些笑声的安全措施,“并且很可能压倒它。希望这永远不会发生,但你永远不知道。”
马斯克有点避讳,他也应该这样做。人工智能安全研究人员指出,原因之一是 Tesla Bot 和其他最近的例子代表了早期的进化步骤。
“人工智能的工程学科实际上并不存在,”乔治城人工智能中心的托纳说。“没有技术标准,不了解我们想要达到什么性能,以及我们如何判断我们是否实现了它。”
Toner 补充说,人工智能的发展正在达到一个拐点。“它显然对很多事情都有用,但到目前为止,我们只将它用于大多数相当低的赌注。问题是,我们能否解决可靠性 [和] 可信赖性挑战,以解锁更广阔的高风险应用空间?