AI的进阶:谷歌人工智能聪明过人脑?
扫描二维码
随时随地手机看文章
人机围棋大战第二局,AlphaGo一手落向空白区域的37惊呆了世界——李世石看到后离开了,远程观看并解说的雷德蒙同样震撼。这个西方唯一的九段棋手表示,“我真的不知道这是一步好棋还是坏棋。”而与此同时,美国围棋协会通讯副总裁英语解说员克里斯·加洛克则表示,“这是一个错误。”
这一步李世石长考了大约二十分钟,但四个多小时候,他还是输了。后来的后来,在这场人机大战中,链接了数百个分布在世界各地的谷歌数据中心的AI程序,击败了可能是有史以来人类设计的最复杂的游戏中最好的选手。
对37手同样产生疑惑的是樊麾,他不只是曾经5比0输给AlphaGo的欧洲围棋冠军,而且从那以后,他成为了AlphaGo的陪练。与李世石交战前的五个多月里,樊麾与AlphaGo进行了上百盘比赛。他看着AlphaGo一天天地长大。樊麾失败的次数越来越多,但他是最了解AlphaGo的人。看着AlphaGo的第37手,他深知这其中一定有常人难以理解的地方,计算10秒后,他表示“竟是如此妙手”。
对,大多数人认为,AlphaGo的胜利是计算力的强势碾压,然而,第37手证明AlphaGo不只是计算,它表现出一定程度理解围棋的能力,就像人类棋手一样,具有“棋感”。所以,37手具有历史性的意义,它表明机器和人类终于开始有了真正融合的一天。
AlphaGo创始人哈萨比斯1976年生于伦敦,他4岁开始接触国际象棋,13岁晋身“大师级”(chess master),在14岁以下棋手中名列世界第二。AlphaGo团队的领导者席尔瓦说道,“我曾见他出现在我们镇上,赢得了比赛,然后离开。” 他们两人在剑桥读本科时正式见了面。为了了解人类的思维,研究机器是否也能变得智能,两人的专业都是计算神经科学。哈萨比斯在伦敦大学学院(UCL)攻读认知神经科学博士课程时,主攻脑部负责导航、回忆及想像的海马回(hippocampus) ,为打造思考方式更近似人类的电脑打下基础,他提出的新理论获《科学》杂志评为2007年十大科技突破。
1997年IBM深蓝电脑击败国际象棋冠军时,正好是哈萨比斯在剑桥大学攻读电脑科学的时候。那时他在剑桥内第一次接触到围棋——这个已有千年历史的棋类运动,而刚刚接触围棋的哈萨比斯忍不住思考:为什么机器从未破解这种智力游戏?也因为如此,哈萨比斯暗下决心,希望做出一个下围棋胜过人类的电脑系统。用博弈论的术语讲,围棋与国际象棋和西洋跳棋一样,是一种完全信息博弈游戏——毫无运气可言,信息完全公开。通常来说,电脑应该轻松就能将其掌握,但其就是攻克不下围棋。
哈萨比斯表示,在围棋中,无论是人类还是机器都无法算出每一步的最终结果,顶级棋手靠的是直觉,而非硬算——即是棋感。“围棋布局讲究美学,好的布局看起来充满美感。”
1998年,两人毕业后合开了一家电子游戏公司。游戏是检验人工智能的好办法。但在2005年,他们的游戏公司倒闭了。席尔瓦去了阿尔伯塔大学研究人工智能的初级形式——增强学习。增强学习技术让机器可以重复同样的任务,找出效果最佳的决策,从而实现自主学习。哈萨比斯则去到了英国伦敦大学学院,获得了神经系统学的博士学位。两人的专业都是计算神经科学,为了研究机器是否也能变得智能。2010年,他们再次相聚——哈萨比斯在伦敦成立了一个名为DeepMind的人工智能公司,席尔瓦则加入了他。
当谷歌CEO布林遇见哈萨比斯时,哈萨比斯说:“几年内,DeepMind或许能打败世界围棋冠军。”连以远见卓著的布林也觉得不可思议,但他们做到了。
人机大战第二局结束后,席尔瓦进入AlphaGo的控制室,监控其运行是否正常,并跟踪它对每场对弈结局的预测有何变化。 席尔瓦调出了AlphaGo在对弈期间做出的决策记录,查看AlphaGo在下出第37手的前一刻发生了什么。
在DeepMind和AlphaGo出现之前,机器下棋都依靠暴力破解的方法,即穷举,IBM的深蓝用的就是这种。当时,深蓝也走出了人类意料之外的一步,但是,暴力计算解决不了围棋。围棋有太多变化,电脑都无法硬算。
所以,DeepMind只能另辟蹊径——机器学习。
DeepMind团队将3000万步人类下出的围棋步法输入到一个深度神经网络中。这个网络模拟人脑中的神经网,团队也希望它能够像人脑一样思考,自主学习。比如Facebook的计算机视觉技术,谷歌的语音识别。观察足够多的猫,它就能认出猫;输入足够多的语言数据,它就能听懂自然语言;同样,输入足够多的棋谱,它也能学会如何下棋。但是,创意联想与规则运用是两码事,比如37手并不在那3000万步棋谱之中,那么它是如何做到的呢?事实上,AlphaGo还计算出,一名人类专业棋手下出这样一步的概率大约只有万分之一,但它还是选择了这一步。
“它知道职业棋手这么下的几率很低,但当它经过自己的计算后,它可以推翻原先输入的棋谱参考,”席尔瓦解释道,从某种意义上来说,AlphaGo开始自主思考。它做出的决定不是以其创造者在其数字DNA中编入的规则为基础的,而是以其自学的算法为基础的。
让它自己学会了下棋后,席尔瓦让AlphaGo和自己对弈——一个与其版本不一样的神经网络。在自我对弈训练过程中,AlphaGo记录起那些最优的走法——这就是席尔瓦曾研究的增强学习技术。
给自己打谱——这是棋力提高的有效方法,但这是部分技巧。懂得分析局面、有了逻辑计算还不够,在茫茫棋盘中找到妙手还要靠直觉,就是根据棋形进行的感性预测。在增强学习技术实现后,席尔瓦的团队将这些非人类围棋步法输入到第二个神经网络中,教它像深蓝那样预测国际象棋棋局一样预测围棋的棋局。将其与自己对弈多场后收集到的所有信息输进去后,AlphaGo开始可以预测一场围棋对弈可能展开的方式。这便是直觉。比如AlphaGo的37手。即使回到后台查看过程的席尔瓦,也无法知道AlphaGo是如何得出这个结果——这就是棋感的形成。
AlphaGo是 DeepMind 跨入 AI 领域的重要一步,但对于“AI取代人类论”,哈萨比斯表示无需担心,在他看来,AI是一个工具,一个结构智慧,让人类更好的工具。虽然AlphaGo目前有这样的能力,但它未必真的知道“自己”在做什么。所以,利用这样一个工具,哈萨比斯又是如何设想未来5年的AI世界的呢?谷歌花6.5亿美元收购一家公司,不会只是玩一场棋牌游戏。
有了深度学习和自主思维能力,AlphaGo今天可以下棋,明天就可以学设计。深度学习和神经网络支撑着十多项由谷歌提供的服务,包括它那无所不能的搜索引擎。AlphaGo另一个不那么秘密的武器——增强学习已经在教导该公司的实验室机器人们拿起并移动各种物品。
但是,商业问题并不是最重要的。当询问哈萨比斯,看见李世石输了比赛他作何感想时,他指着心口说:“我很难过。” 看到自己创造的成果他感到骄傲,但出于人类本能,他感到难过,他希望李世石能够赢下一局。