微软艾伦研究所CEO称:人工智能不会对人类生存造成威胁
扫描二维码
随时随地手机看文章
伊隆·马斯克(Elon Musk)正计划开发全自动驾驶汽车。这样的汽车需要强大的人工智能技术,实时阅读周围复杂的驾驶环境,并作出反应。人工智能正取得令人惊喜的成果。例如上周,AlphaGo的开发团队报告称,他们的软件已经可以了解,如何像伦敦本地人一样在错综复杂的伦敦地铁里找到路。甚至美国白宫也开始关注人工智能。几天前,白宫发布了一份研究报告,推动美国迎接人工智能的未来。
然而,计算机科学家、艾伦研究所CEO奥林·艾奇奥尼(Oren Etzioni)表示,在人们可以将世界交给计算机,或是担心计算机对人类的威胁之前,我们还有很长的路要走。过去几年,艾奇奥尼专注于研究并解决人工智能的基本问题,他目前担任艾伦人工智能研究所CEO。
2014年,微软联合创始人保罗·艾伦(Paul Allen)与他人共同创立了这一研究所(AI2),专注于研究人工智能可能给人类带来的帮助。该研究所并不认为,人工智能会像好莱坞大片中所说的一样,对人类的生存造成威胁。
微软联合创始人保罗·艾伦
艾伦研究所的项目或许并不那么有趣。这其中包括基于人工智能、用于学术研究的搜索引擎SemanTIc Scholar。不过,他们也会关注推理等人工智能的其他领域。用艾奇奥尼的话来说,这将使人工智能技术不再被局限于“狭窄的领域,只能做好某件事”。
在近期于纽约举行的人工智能大会上,《科学美国人》对艾奇奥尼进行了专访。在采访中,他对企业过度夸大人工智能,尤其是深度学习技术当前能力的做法表示了担忧。深度学习技术利用神经网络,模拟人脑的神经系统去处理大规模数据集,从而让计算机自主学会某些特定的技能,例如识别模式,以及照片中的特定对象。
艾奇奥尼还谈到,为何10岁儿童也要比DeepMind的AlphaGo更智能,以及人类为何需要开发人工智能“卫士”程序,确保其他人工智能系统不会对人类构成危险。
艾伦研究所CEO奥林·艾奇奥尼
以下是专访主要内容:
问:关于开发人工智能技术的最佳方式,研究人员之间是否存在分歧?
艾奇奥尼:我们在语音识别、无人驾驶汽车等领域取得了真正的发展,当然还有AlphaGo。这些都是真正的技术成就。然而,我们要如何进行表述?深度学习很明显是极具价值的技术,但我们在开发人工智能的过程中还有许多其他问题要解决,例如推理(这意味着机器可以理解2+2=4,而不仅仅是根据规则去计算),以及掌握背景知识去建立上下文环境。自然语言理解是另一个案例。即使我们已有AlphaGo,我们还无法开发出一种软件,阅读并充分理解某个文章段落,或是简单的句子。
问:有观点认为,关于人工智能,深度学习是“我们掌握的最佳手段”。这是否是对深度学习技术的不看好?
艾奇奥尼:如果你掌握了大量已被标记的数据,让计算机知道这些意味着什么,而如果你又掌握了大量计算资源,并试图从这些数据中找寻模式,那么我们已经看到,深度学习是不可击败的。就AlphaGo而言,这一系统处理过3000万种棋型,从而令人工智能知道在不同情况下什么样的下法是最优的。其他一些情况也很类似,例如医院的放射影像。如果我们可以把许多影像图片标记为存在肿瘤或不存在肿瘤,那么深度学习软件就可以自行判断,未知图片上是否存在肿瘤。利用深度学习,可以做的有很多。这是一种领先的技术。
问:那么问题是什么?
艾奇奥尼:问题在于,智能有很多种,不仅仅是你用大数据去训练一个程序。可以想象标准化考试,例如SAT考试或大学入学考试。软件不可能去观察此前的3000万次被标记为“成功”或“不成功”的考试,从而拿下最高分。这是个更复杂,需要互动学习的过程。智能性也包括通过建议、对话内容,以及书本的学习能力。尽管深度学习取得了极大的进展,但我们仍未能开发出一种软件,让其实现10岁儿童可以做到的事,即拿起一本书,阅读其中某个章节,随后回答关于这部分内容的问题。
问:那么,人工智能要如何才能通过标准化考试?
艾奇奥尼:在艾伦研究所,我们已开展了这方面的研究项目。去年,我们宣布了一笔5万美元的奖金。任何人如果能开发出人工智能软件,使其通过8年级的标准科学考试,那么将可以赢得这笔奖金。来自全球的超过780个团队参加了这一项目,尝试了几个月时间,但没有任何团队开发的人工智能系统能达到60分,即使这只是8年级考试中的多选题。这表明了我们的现状。
问:顶级人工智能系统正确回答问题的能力如何?
艾奇奥尼:通常情况下,语言中会包含线索。最前大的系统会利用来自科学教材和其他公开来源的信息,并通过强大的信息检索技术去进行搜索,为每道多选题寻找最佳答案。例如,以下的最佳导电材料是什么?选项包括,塑料汤匙、木头叉子,以及铁棒。程序非常善于用公式。它们可以发现在许多文件里,电力或导电往往与铁关联在一起,而不会与塑料关联在一起。因此在某些情况下,程序能走捷径,发现答案。这与孩子们有根据的猜测类似。由于没有任何系统达到60分,我可以认为,这些程序只是使用统计学方法进行有根据的猜测,而不是用推理方式去思考问题。
问:开发AlphaGo的DeepMind团队目前开发了人工智能程序,利用外部记忆系统突破了深度学习。在开发更接近人脑的人工智能方面,他们的工作将带来什么样的影响?
艾奇奥尼:在推动深度神经网络发展的过程中,DeepMind仍是领先者。在人工智能推理能力发展的过程中,这一贡献是重要的一步,但也是很小的一步,即通过图谱结构将事实联系在一起,例如对地铁系统的绘图。当前最强大的软件可以轻松完成同样的任务,但这里的成就在于,神经网络可以学习如何根据案例完成任务。这配得上一篇《自然》论文。整体来看,这是DeepMind的一大步,但却是人类的一小步。
问:那么是否有可能将不同技术,例如深度学习、机器视觉和记忆结合在一起,开发出更完整的人工智能系统?
艾奇奥尼:这是个极具吸引力的概念。当我还在华盛顿大学担任教授时,我在这方面有许多研究,而基本概念在于,利用互联网作为人工智能系统的数据库。我们开发了一项被称作开放信息提取的技术,编目了50亿个网页,从中提取语句,试图将其变为可以指导机器操作的知识。机器具备超自然的能力,扫描网页,获得所有语句。问题在于,语句位于文本或图片中。作为人类,我们的大脑具备标记能力,将操作与推理匹配在一起,而计算机科学家尚未发现其中的奥秘。这种通用数据库及人工智能界面只存在于科幻小说中,因为我们尚未确定,如何将文字和图像转化成机器可理解的形式,就像人类的理解一样。
问:你曾经提到,人脑水平的人工智能至少还要25年的发展。你对人脑水平人工智能的定义是什么,为什么提出这样的时间点?
艾奇奥尼:对自然语言的真正理解,人类智能的广度和普适性,我们既可以学会下围棋也知道如何过马路,以及清楚如何做出美食,这样的多样性正是人类智能的特点。我们目前所做的只是开发范围很窄的人工智能,只能在某一方面做得很好。关于如何得出这样的时间点,我曾询问过“人工智能发展协会”的同事,我们何时能开发出像人类一样聪明的计算机系统。没有人认为,这样的系统能在10年内开发出来;有67%的人认为,时间会是未来25年或更长;而25%的人认为这样的系统永远不可能实现。他们是否有可能搞错?是的。不过你应该去相信哪些人?是行业发展的参与者,还是好莱坞?
问:为什么有许多备受尊重的科学家和工程师警告称,人工智能将威胁人类?
艾奇奥尼:我很难理解,史蒂芬·霍金(Stephen Hawking)和伊隆·马斯克(Elon Musk)等人讨论普适性人工智能的动机。我的猜测是,讨论黑洞可能已经显得很枯燥,这是个进展缓慢的问题。我可以说的是,当他们和比尔·盖茨(Bill Gates)等人讨论人工智能的威胁,或是灾难性后果时,他们总是会加入修饰语,即这“最终”会发生,或“能够”发生。我对此表示同意。但我们讨论的或许是数千年之后的未来,甚至永远不会到来的未来。人工智能是否有可能给人类带来末日?完全有这样的可能。但我并不认为,这种着眼长期的讨论应当影响我们对实际问题的关注,例如人工智能和就业,以及人工智能和武器系统。而“最终”和“理论上”这类修饰语在意思的传达中常常会丢失。
问:考虑到人工智能的缺陷,人们是否应当担心汽车厂商发展无人驾驶的努力?
艾奇奥尼:我并不热衷于没有方向盘和刹车踏板的无人驾驶汽车。在熟悉关于计算机视觉和人工智能的情况之后,我对此并不感冒。然而,我支持融合的系统,例如这样的系统在你打瞌睡时可以帮你自动刹车。人工司机和自动化系统的结合将会比单独某一方更安全。这并不简单。引入新科技,将其集成至人们工作和生活的方式并不容易。但我不能断言,最佳解决方案就是让汽车自行去做一切的操作。
问:谷歌(微博)、Facebook和其他知名科技公司启动了“人工智能造福人类和社会合作伙伴”项目,探索人工智能研究过程中的道德伦理和社会学最佳行为。技术的进步是否足以带来有意义的对话?
艾奇奥尼:全球领先的科技公司走到了一起,思考这类问题,这是很好的想法。我认为,他们这样做是为了回应外界的关切,即人工智能是否会接管世界。许多担忧都是过分夸大的。即使我们有了无人驾驶汽车,也不会出现100辆无人驾驶汽车聚集在一起,说“让我们去占领白宫”。马斯克等人讨论的威胁还要几十年到几个世纪才可能出现。然而,我们正面临一些现实问题:自动化、数字技术和人工智能整体将影响就业情况,无论这是因为机器人还是其他什么,而这是真正的问题。无人驾驶汽车和卡车将极大的改善安全性,但它们也将影响到很多以开车谋生的劳动者。另一个问题在于人工智能的歧视性。如果人工智能技术去处理贷款或信用卡申请,它们是会以完全合法的方式去做,还是会以符合道德标准的方式去做?
问:你要如何保证,人工智能程序的行为符合法律和道德?
艾奇奥尼:如果你是一家银行,利用软件程序去处理贷款,那么你无法躲在它背后。简单地说,这个决定是计算机做出的,这并不是接口。即使不使用种族或性别作为变量,计算机程序也可能会出现歧视行为。由于程序可以接触到许多变量和统计数据,它们可能会发现,在邮政编码和其他变量之间存在相关性,进而以这样的变量去替代种族或性别。如果程序使用这些替代变量来影响决策,那么就会是个问题,而人工很难去探测或追踪。因此我们的建议是开发人工智能“卫士”。这样的人工智能系统可以监控并分析以人工智能为基础的贷款处理程序的行为,确保其符合法律,在发展中合乎道德伦理。
问:目前人工智能卫士是否存在?
艾奇奥尼:我们已经向研究者社区发出呼吁,推动这类技术的研究和开发。我认为,目前可能已有少量的研究,但现阶段这还只是我们的目标。我们希望,关于人工智能卫士的概念能澄清好莱坞渲染的人工智能的形象,例如“终结者”,即技术是恶魔,是冷冰冰的力量。