人工智能20年内或完全实现 人类去做什么?
扫描二维码
随时随地手机看文章
据Futurism报道,最近,畅销书作家、著名未来学和新兴技术方向专家罗伊·泰扎纳(Roey Tzezana)对人工智能(AI)的光明未来做了很多研究,同时发表了不少文章。他认为AI将能够分析人类情感、理解社会细微差别、进行医学诊断和治疗,甚至让人类工人变得多余和不必要。
如今,泰扎纳依然支持这些预测,但承认它们都是长期目标,或许在二三十年后才会成为现实。而许多人都想知道AI目前的情况。幸运的是,美国国防部下属国防高级研究计划局(DARPA)决定提供相关问题答案。DARPA是美国最有趣的机构之一,专门致力于资助“疯狂”项目,即完全不被正常思维或范式思维所接受的想法。但也正因为如此,DARPA帮助建立早期互联网和GPS系统也不足为奇了。此外,该机构还在研究许多令人感到奇怪的概念,比如有腿的机器人、预测市场甚至能够自我组装的工具等。
自从DARPA成立以来,它就重点关注“moonshot(疯狂而不太可能实现的项目)”和突破性技术,为此其当前关注AI领域的发展无需感到惊讶。最近,DARPA下属信息创新办公室发布Youtube视频,揭示了当前AI所处状态,概述其当前能力,并预测它们将来能做什么。在线杂志《Motherboard》称这段视频为“瞄准AI炒作”,很有观看的必要。这段视频的核心信息摘要如下:
AI可分为三个波次
DARPA将AI分为三个不同波次,每种都有不同的能力和限制。其中,第三个波次显然最令人感到兴奋。但要想正确理解它,我们首先需要了解前两个波次。
第一波次:手工制作知识
在AI的第一波次中,专家们会基于自己掌握的知识设计算法和软件,并尝试位这些程序提供逻辑规则,这些规则被破译,并贯穿整个人类历史。这种方法促使下棋电脑和交付优化软件的诞生。我们如今使用的大多数软件都是基于这种AI开发的,包括我们的Windows操作系统、智能手机应用甚至智能交通灯等。
Modria就是这种AI的典型代表。荷兰政府近年来雇佣Modria开发自动工具以帮助夫妻离婚,无需律师参与。Modria专门从事智能司法系统的创建,它接受了这份工作,并依靠律师和离婚专家的知识设计出自动离婚系统。在Modria平台上,想要离婚的夫妻将被询问一系列问题,包括双方对孩子监护权、财产分割以及其他常见问题。当夫妻双方回答这些问题后,系统会自动识别他们同意或存在分歧的主题,然后指导双方协商,以期获得双方都满意的结果。
第一波次的AI系统通常是基于明确而又符合逻辑的规则开发的。这些系统会检查每个需要解决的问题中最重要的参数,并得出结论,给出最适当的解决方案。但每个问题中的参数都是人类专家事先确定的。为此,第一波次AI系统很难处理新出现的问题。面对抽象问题也很无奈,这类问题需要从特定情况下吸取知识和洞见,并将它们应用于解决新问题中。
总而言之,第一波次AI系统能够实现简单的逻辑规则以处理定义明确的问题,但其学习能力很差,也没有办法应对不确定性问题。如今,有些人可能认为,这并非大多数人所认为的人工智能。然而事实上,我们对AI的定义也是随着时间推移而不断进化的。如果我在30年前询问街头上的人,谷歌地图是否属于AI软件,他可能会毫不犹豫地给出肯定回答。谷歌地图可以规划最佳路线,甚至可以用明确语言指导每次转弯和每个路口。然而,谷歌地图上的很多能力都是初级的,AI应该能够执行更多功能。AI应该能够控制公路上行驶的汽车,将乘客欲望考虑在内制定自律哲学,同时还能泡咖啡。
Modria的司法体系和谷歌地图都是“原始软件”利用AI的最好例证。如今,第一波次的AI系统几乎已经无所不在。
第二波次:统计学习
2004年时,DARPA举行了首次大挑战赛。15辆无人驾驶汽车在莫哈韦沙漠中,争夺完成240公里的比赛。这些车辆都依赖第一波次AI系统,同时立即展示出这种AI存在的局限性:车上摄像头拍摄的每张照片都是AI必须处理的新情况。要说这些车辆难以处理比赛的整个过程有点儿夸张,但它们的确无法确分图片中的暗色形状,无法确定其是否是岩石、远处目标亦或只是遮住了太阳的云朵。正如大挑战赛项目副经理指出的那样,有些车辆甚至害怕自己的影子和根本不存在的幻觉障碍。
图:首次DARPA大挑战赛无人驾驶汽车的比赛场景
在这场比赛中,没有任何团队能够完成整个比赛,即使最成功的车辆也只跑了12公里。这是完全彻底的失败,但它们也是DARPA喜欢资助的研究。DARPA希望能够从这些早期试验中找出洞见和经验,进而在将来开发出更复杂的系统。事情的确沿着这个方向发展。1年后,当DARPA举行2005年度大挑战赛时,5个团队的无人驾驶汽车完成了比赛。这些团队依靠第二波次AI系统,即统计学习。1个获奖团队的负责人立即被谷歌招募,负责开发谷歌的无人驾驶汽车。
在第二波次AI系统中,工程师和程序员们不必在费心地教授AI系统完全遵守规则。相反,他们可以开发特定类型问题的统计模型,然后利用各种样本训练它们,以便让它们变得更加精确和高效。统计学习系统在理解周围世界方面取得巨大成功:它们可以区分不同的人或不同的元音。通过适当训练,它们可以学习和调整自己以便适应不同的情况。可是,与第一波次AI系统不同,第二波次AI系统在逻辑方面依然存在很大限制:它们无法依赖明确的规则,只能尽力寻找通常足够好的解决方案。
第二波次AI系统中的“海报男孩”是人工神经网络概念。在人工神经网络中,数据可通过计算层,每个计算层能够以不同的方式处理数据,然后将其传递到下一层。通过在这些计算层中训练,加上完整的网络,AI就能够产生组精确的结果。通常情况下,训练要求人工神经网络分析大量数据源,以达到微小改进的目标。但是一般来说,与特定领域的第一波次AI系统相比,这种方法可提供更好的结果。
到目前为止,第二波次AI系统在人脸识别、语音转录、识别照片中动物和物体的能力已经超过人类。在翻译领域,它们也正取得巨大进步。此外,它们还开始控制无人驾驶汽车和无人机。这些系统在执行如此复杂的任务中取得成功让AI专家们目瞪口呆,因为实际上我们还不确定它们为何能如此成功。
第二波次AI系统的致命弱点是,没人确定为何它们的表现如此之好。我们看到人工神经网络在执行给定任务方面表现非常棒,但我们不理解它们是如何做到的。此外,现在还不清楚人工神经网络背后是否真有一种方法支持。在某些方面,它们的确很像我们的大脑:我们可以将球扔向空中,然后无需计算牛顿的运动方程就可以预测它们的落点,甚至根本没有意识到规则的存在。
乍一看,这似乎不是太大的问题。毕竟,人工神经网络似乎表现得很好。但微软可能不同意这种观点,该公司已经于2016年在社交媒体上发布聊天机器人,尝试模仿人类协作,并与年轻人进行轻松对话。这款机器人被称为Tai,它可以模仿19岁美国青年的说话模式,并用独特的俚语与他们交谈。微软认为,年轻人会喜欢它,事实也的确如此。许多人开始搞恶作剧,告诉Tai希特勒取得的巨大成就,称9/11恐怖袭击为美国阴谋等。几个小时后,Tai开始应用它新学的知识,在Twitter上宣称希特勒是个好人,没有做错任何事。
微软工程师立即下线了Tai,它最后的推文是自己已经停止思考。但据我们所致,它依然在思考中。这起事件暴露了AI工程师当前面对的因果关系挑战。我们可以相当精确地预测出第一波次AI在某些特定环境中的作用。但是随着第二波次AI的到来,我们再也无法轻易识别出系统的因果关系,即输入转为输出的精确方法,数据正被用来左右决策。
但这并非是说人工神经网络和其他第二波次AI系统完全无用。事实上远非如此,但显然如果我们不希望AI系统对纳粹独 裁者感到兴奋,某些方面的改进是必须的。我们必须向下一波,也就是第三波次的AI系统前进。
第三波次:语境适应
在第三波次中,AI系统本身将可构建模型,用已解释它们的工作原理。换言之,它们自己会发现形成决策过程的逻辑规则。举例来说,如果使用第二波次AI系统分析下面的图片,它会确认这是一头奶牛。但它会如何解释自己获得这样的结论?非常简单,它没有办法解释。
图:大多数AI系统可以识别出图片中的物体是牛
第二波次AI系统无法真正解释自己是如何做出决策的,就像孩子即使看到球在空中移动也无法写出牛顿的运动方程那样。在绝大多数情况下,第二波次AI系统可以告诉我们,图片中的物体85%的可能是奶牛。而第二波次AI系统应该能够在最后结论中增加某些实质性内容。当第三波次AI系统观察同样的照片时,它可能会说,因为里面有一头4条腿的物体,它很有可能是一种动物。由于其白色表面有黑色斑点,它很有可能是奶牛。因为这种动物有乳房和蹄子,几乎可以肯定它就是牛。
第二波次AI系统将能够依靠几个不同的统计模型,以便更完整地理解世界。它们能够进行自我训练,就像Alpha-Go那样,它可通过与自己下100万次围棋训练自己,并确定其应该使用的常识规则。第二波次AI系统还应该能够从不同的数据源中提取信息,以给出细致入微的解释。举例来说,这些系统可以从我们的可穿戴设备、智能家居产品、汽车甚至城市中去数据,并确定我们的健康状态。它们甚至能够自我编程,并展现出抽象思维能力。
正如DARPA下属信息创新办公室负责人所说的那样,唯一的问题是,要想建立这样的系统需要有很多工作要做。
展望未来20年
DARPA的视频中的确揭示了不同AI系统之间的差异,但它并未减轻人们对AI的恐惧,许多人呼吁在开发AI系统时应保持警惕。DARPA澄清说,我们还未接近开发出类似“终结者”那样的AI系统,但这从来都不是首要问题。没人试图宣称当今AI已经成熟,足以做到我们数十年来期盼的所有事情:有自己的动机,做出符合道德的决策,甚至开发出下一代AI。但是第三波次AI的到来肯定向那个方向迈进了一大步。
当第三波次AI系统能够自己破译新的模式,并改进它们的功能时,它们实际上已经能过为新一代软件编程。当它们理解语境和行为后果时,他们就能够取代大多数人类,甚至所有人类。允许它们重塑模型,就意味着允许它们能够重新编程自己的动机。
上述假设在未来几年内不会发生,甚至在未来20年内都无法完全实现。正如畅销书作家、著名未来学和新兴技术方向专家泰扎纳解释的那样,没有任何负责任的AI研究人员会给出武断的预测。担心AI未来的人们(比如霍金、马斯克、布罗斯托姆等)发出的核心信息就是,我们需要现在就开始警惕,寻找如何能够控制第三波次AI系统的方法,它们在20年内将变得无所不在。当我们考虑这些AI系统的能力时,这条信息似乎变得理所当然。
最后波次
对于泰扎纳来说,他最感兴趣的是第四波次AI系统看起来会是什么样。它们是依赖对人类大脑的精确模拟吗?或许第四波次AI系统将展示出我们目前还无法理解的决策机制,而那恰好是第三波次AI系统开发的基础!这些问题都留待我们去思考、去研究。这也是我们人类的使命,至少在第三波次AI系统中需要我们继续去探索。