谷歌施密特:机器学习系统将改变人工智能领域
扫描二维码
随时随地手机看文章
在用Android(安卓)开源系统改变移动世界后,Google希望用开源机器学习系统TensorFlow改变人工智能领域。“机器学习对我而言,是 为了让人类能够不用像机器那样去做事。”11月10日,在Google公布开源第二代机器学习系统的第二天,Google母公司Alphabet董事长施密特(Eric Schmidt)通过视频向包括《第一财经日报》在内的媒体表示。
面对在场媒体,施密特举例称:“你们都是记者,在会场还要不停地用电脑打字,而不只是听和说。为什么不能让机器去做比如制造业的重复工作、很多打字的工作?”他预计,在Google公布开源第二代机器学习系统之后,尤其是在医疗、游戏、教育等领域,机器学习将发挥巨大的价值。
机器学习背后的黑科技
机器具备学习能力究竟有多重要?Google科学研究员GregCorrado做了一个比喻:“机器学习就像火箭助推器,而大量的数据就是火箭的燃料。”
谷歌机器学习的原理是:用众多的电脑模拟人脑中的“神经元”,形成一个人的“神经网络”(ArtificialNeuralNetwork)。它不需要借助大批研究人员帮助电脑标明事物之间的差异,只要为算法提供海量的数据,“神经元”与“神经元”之间的关系将会发生变化,让数据自己说话,让组成“神经网络”的机器具备自动学习、识别数据的能力,在新的输入中找出与学到的概念对应的部分,达到机器学习的效果。
例如,当人们需要计算机辨别图片内容的时候,各个人工神经元就会把所抓取的信息传递给被设置为“决策者”的神经元上,它们通过统观其下层所有神经元所呈现的信息,结合案例、数据的分析及算法最终得出结论。
事实上,谷歌对于机器学习的研究要追溯到7~8年前的语音技术开始。但施密特透露,机器学习这一技术取得突破性进展,是发生在计算机视觉领域。
三年前,Google科学家杰夫·狄恩(JeffDean)在接受《第一财经日报》采访时透露,“GoogleX”实验室通过连接16000台计算机处理器,创建了一个机器学习的神经元网络系统。结果发现,这个系统自行创建了猫这个概念并且自学了对猫的辨认,这就是“自我学习”。
不过,当时的谷歌机器学习还只是一个实验项目,局限于认知类的简单工作。几年过后的今天,谷歌的机器学习已经从识别谷歌应用中的语言和图片的第一代机器学习系统“DistBelief”更新到了第二代的TensorFlow系统,并且应用于Gmail、GooglePhotos、Google翻译、YouTube等产品中。
Google研究员GregCorrado告诉记者,利用机器学习技术,Gmail电子邮件服务的垃圾邮件拦截率提高到了99.9%,误报率降低至0.05%。这背后的原因就是,在垃圾邮件过滤器中引入了机器学习,这一技术能够通过分析大量计算机上的电子邮件学习识别垃圾邮件和钓鱼邮件。更重要的是,机器学习能够适应不断变化的情况,而非只是利用预先设置好的规则拦截垃圾和钓鱼邮件,它还能在运行过程中自己创建新的规则。
而另一个能代表这项技术的最新产品是,谷歌在Gmail上推出智能自动回复功能SmartReply。SmartReply是基于Google机器学习系统,对海量邮件里的场景、邮件写作风格和写作语气进行分析,从而帮助用户筛选适合语境的回复短句。
“一小步”与“一大步”
“在Google内部,现在机器学习已经是谷歌搜索中第三大重要的技术。”GregCorrado对记者说,人工智能是科学家希望机器变得更智能,从经验和数据中学习。“手动去编程机器显然没有让它自己学习来得更有效。”
不过,实现机器学习的训练过程仍然漫长。在这个过程中,机器需要做大量测试、调整和适配工作,也很有可能犯一些人们不大可能犯的错误。
这也正是Google把机器学习系统的大门向业界工程师、学者和拥有大量编程能力的技术人员敞开的原因,希望业界将TensorFlow实现各种各样的机器学习算法,同时也为其在各种场景下的应用带来改进。
“例如,计算机的视觉如果比人更好,为什么还要人去开车?应该让机器开车。现在是医生看X光,未来如果让机器看是否会做出更准确的诊断?”施密特说,“在开源之后,如果全世界的聪明人都将给Google很好的回馈,Google会有更好的发现,让产品和服务更完美。”
他同时提到,机器学习非常善于预测时间先后顺序的事件的发生,自己尤为看好机器学习在医疗、游戏、教育等领域发挥的价值。“甚至我们竞争对手的团队都会用它,这就是谷歌不同于别人的原因。”
对于目前Google机器学习的开放策略,GregCorrado表示,一方面,Google开放机器学习,在于鼓励大家从不同角度去研究,即使在Google内部,也不只是一种方法去做机器学习;另一方面,Google已经和学术界、企业界、不同的实验室合作,例如Facebook、百度等。
他同时认为,机器学习并不是魔术,不要盲目地认为机器学习就一定比没有机器学习的好,它只是工具,能够让研究人员转化他们疯狂的创意,而不需要他们重新编写代码。
不过,当机器能够像人类大脑一样去思考时,究竟该如何看待机器学习的伦理问题?未来机器人是否会像电影《少数派报告》中那样,充当“坏人”的角色?
施密特给出的回答是,“只有电影里才会把机器人设定成坏人,在现实世界里,可以通过算法制定一些规则来保证它能够正确地工作。”