当前位置:首页 > 智能硬件 > 人工智能AI
[导读]   孙剑博士2003年毕业于西安交通大学,后一直在微软亚洲研究院工作,担任首席研究员。其主要研究方向是计算摄影学,人脸识别和基于深度学习的图像理解。自2002年以来在CVPR,ICCV,SIGG

  孙剑博士2003年毕业于西安交通大学,后一直在微软亚洲研究院工作,担任首席研究员。其主要研究方向是计算摄影学,人脸识别和基于深度学习的图像理解。自2002年以来在CVPR,ICCV,SIGGRAPH,PAMI等顶级学术会议和期刊上发表学术论文90余篇,两次获得CVPR最佳论文奖(2009,2016)。孙剑博士于2010被美国权威技术期刊MIT Technology Review评选为“全球35岁以下杰出青年创新者”。孙剑博士带领的团队于2015年获得图像识别国际大赛五项冠军(ImageNet分类,检测和定位,MSCOCO检测和分割)。孙剑博士拥有四十余项国际或美国专利,他和他的团队的研究成果被广泛应用在微软Windows,Office,Azure,Bing,Xbox等产品中。孙剑博士于2016年7月正式加入旷视科技担任首席科学家。

  

  大家好,我是Face++的孙剑。

  前面大家提到人工智能的前景,共识是目前感知智能已经做的很不错了,但仍旧没有明确的思路去做认知智能。

  Face++旷视科技的研究团队现在集中精力在做感知智能。我们的基本思路很简单:做技术,做产品,做数据,希望让三者形成正循环来推动人工智能的发展。

  我在Face++和微软做的事

  我在Face++做的核心技术研究与我在微软时做的方向一致:图像分类、物体检测、语义分割、和序列学习。

  

  关于第一个核心技术(图像分类)在ImageNet上的进展:去年我和微软团队做的ResNet一举把网络的深度从十层或二十层推到152层,效果非常好,而且这个模型我们已开源,并且在业界得到了广泛应用。在Face++我会继续进行这个方向的研究,我们系统是ResNet的一个改进版,它和微软时的系统有何不同呢?新版本融入了新的网络架构设计思想,现在一个新的改进版ResNet在ImageNet上可以媲美以往组合六个ResNet。

  图像分类中一个很重要的问题叫做人脸识别,2013年我跟微软的同事做出High-dimensional Feature,这是是没有深度学习时最好的方法。随后Facebook用了DeepFace,也是第一次用深度学习神经网络方法,使得人脸识别率与人类眼眼的识别率非常接近,随后很多家公司包括Face++均采用了深度学习的方法在数据集上超过人眼识别率。

  

  那么计算机真在人脸识别率上超过了人了吗?我的回答是:很多情况下,是的。例如在身份认证和智能安防方向的应用,Face++的人脸识别产品已经超过了人。人脸识别研究已有三十年,今天我们是第一次在上亿的规模上应用人脸识别。

  我们关心的第二个核心技术是物体检测,即,将各种物体在图像中识别并定位出来,换句话说就是不但要识别图像包含什么物体,还要知道物体在哪里。目面Face++拥有一个在著名的VOC2012物体检测的评测中性能最好的单模型物体检测器。为什么强调单模型呢?因为考虑到端上计算力的限制,我们在实际产品广泛使用单模型。

  我们关心的第三个核心技术是语义分割,就是对每个像素分类。这是一个更为精细的分类工作。我们Face++的一名实习生的工作目前在VOC2012语义分割评测中名列第一,他现在正在准备CVPR的投稿。我们欢迎广大的在校学生来我们公司做最顶尖的研究,做更有趣的应用。语义分割还能应用在智能安防场景中,这个视频展示了我们不仅可以把人分割出来,还能把人的不同部位分割出来。由于时间原因,关于序列学习我就不展开了。

  做这些技术需要一个做训练引擎和平台,目前行业里较为流行的有微软的CNTK,谷歌的TensorFlow,和开源的Caffe。而Face++则有着自己的平台叫Brain++,它的设计与TensorFlow相似。TensorFlow发布至今有一年的时间,而我们的Brain++已经在公司运行将近两年了。做自研的平台非常关键,公司敢做并能做,是因为我们拥有最顶尖的人工智能技术人才,我们的研究团队应该是中国ACM金牌选手密度最高的地方。目前在人工智能创业公司中使用自己的深度学习训练引擎的,可能只有Face++。

  有了这样的平台和技术,我们打造了两方面的产品:SmarTID,用来提供身份认证服务;SmartCamera,用来将智能前端化。目前我们产品覆盖包括银行、金融、、互联网、零售、地产、公共安全和机器人等行业。我们希望通过“人工智能+”把人工智能渗透到每个行业当中。

  

  这里有几个数字,Face++人工智能云开放平台的API已经服务了近七万开发者,已被调用62亿次;我们的身份认证平台目前已为一亿人,注意不是一亿次,提供了身份认证的刷脸服务,覆盖了85%的金融市场智能化应用。

  从感知智能走向认知智能

  一般情况下我的报告到这里就结束了,但今天是回家汇报,那我就再继续分享一些对人工智能更个人的看法。我也一直在问自己一个问题,我们当下研究AI方法,是在爬树还是在造火箭。

  

  这里有一幅画的内容是这样:你要想上月球,选择爬树能接近月球,每年还能有不错的进展,有些树高得可能一辈子都爬不完,但到不了月球那里。如果我们不知道怎么造火箭,只用爬树的方法,是永远上不了月球的。

  那么问题来了,我们现在研究AI的方法到底是在爬树还是在造火箭?按我们目前的办法到底能不能上“月球”?

  再回到开场时的提及的感知智能和认知智能这一话题。大多数感知智能能做下去,是因为我们能够很明确的定义他的输入和输出是什么,然后我们用非常深的神经网络去拟合一个函数f(x)就可以。

  但在认知智能方面,我们不知道如何去定义它,不知道如何去准备训练数据或环境,换个说法或许是这个系统太复杂,以至于我们无从入手。所以我把大多数人做的、特别是工业界研究人工智能的方法概括为方法一。

  什么是方法一?方法一就是:从实践到理论。

  靠不断地实践来得到理论,不过严格意义上讲,其实是没理论。由于人工智能这个大问题过于复杂,我们也比较现实地把它拆分为很多很多子问题:如语音、视觉、自然语言等等。这就是我们目前研究人工智能的方法。

  于是我们问自己有没有方法二,能不能从理论到实践,能不能先有一个理论,然后应用到所有问题当中去。

  那现在到底有没有这样的指导性理论呢?我自己是一直不大相信有的,借用我的博士导师沈向洋的一句话:哪儿有那么多随便就能指导实践的理论。

  大脑皮层给人工智能的启示

  直到我最近重新读了一遍Jeff Hawkins写的《人工智能的未来On Intelligence》,我有些相信了。这本书出版于2004年,此前我在2009年读过一次。Jeff Hawkins是Palm的创始人,在创立Palm前他已经学习了很多人脑科学方面的知识。他在做Palm赚够钱后建立了Numenta研究所,专门研究机器智能。他写这本书的一个很大动机是对外阐述他对机器智能的理解。

  书中写到大脑分为两部分:大脑皮层和旧脑(古脑)。

  大脑皮层大概有六层,每层两毫米厚,铺开的面积可能比桌子还要大,每个神经元和周围的成千上百的神经元相连接。大脑皮层并不是突然出现,最开始爬行动物是没有大脑皮层的,而在几千万年前哺乳动物开始有了大脑皮层,几百万年前人类的大脑皮层突然增大,使得人和动物划开了界限。

  书中最让作者包括我信服的观点是:人比动物聪明,是因为人类大脑皮层简单迅速地复制了自己,而不是生成其他特殊的结构;几百万年的时间不足以生成一个特殊的结构。

  上世纪70年代曾有人提出这样一个观点:大脑皮层是同质的,每个地方都一样,这下面可能存在一个主管我们人类智能的通用的算法;人类有不同的各种感知只是因为不同的输入器官与大脑皮层相连接。

  而且大脑皮层可以重塑,如果某个人天生失明,那他原来主管视觉部分的皮层可以演化为听觉部分,大脑皮层的各部分功能不是固定下来一定要做什么的。

  大脑皮层的这个通用算法其实是在实时处理时-空的神经元突触的电位变化,这里面有个计算方法,该计算方法和计算机的计算方法不同,它不是靠算的。有神经学的分析,人类的大脑的运算速度并不快,大脑不是在计算,而是在记忆中直接提取相似的东西,从而直接回答答案。简单来说,人是利用记忆系统来完成计算的。

  我这里列出了书中对人类记忆的属性的描述,时间关系就不详述了。

  Jeff Hawkins在最后展示他的智能理论新构架时问:什么是理解?

  他举个例子,如果我们回到家看到家中的环境,我们可能不会特别注意到什么;但家里假如出现一个新物体,我们的注意力马上就会被吸引过去。Jeff Hawkins做出以下理论解释:大脑时时刻刻都在做着各种预测,如果哪个地方预测失败了,那个地方可能就是出现了新情况或新物体。此外,大脑皮层还在做各种各样的从初级到高级的预测。

  从理论到实践

  这里有个非常有意思的故事,当年我们写过一篇关于图像修补(Image CompleTIon)的论文,论文的研究内容是猜测被遮挡住物体的后面是什么样子的。其实人也在有意识无意识的预测这种事。当年我们在和沈向洋老师一起写论文时就是在预测某个物体的后面是什么,然后把它画出来。

  《人工智能的未来》一书的理论简单来说,就是该理论认为智能是一个记忆-预测(Memory-PredicTIon)的框架,智能是你能够利用对这个世界模式的记忆和预测的能力来衡量的。图灵定义图灵智能,是利用行为来衡量。而Jeff Hawkins并不同意。

  我第一次读过这本书后受到很大的启发,于是在2011年写过一篇CVPR论文。论文内容是为解决大姿态下人脸识别的问题:我们构建一个人脸数据库,构建一个记忆,希望把正面脸和侧面脸通过记忆连接起来,这是当时人脸识别最好的方法。有趣的这篇论文的第一作者是Face++的CEO&创始人印奇。

  目前在神经网络的研究中,我们认识到记忆的重要性,如果没有记忆,那么训练出来的系统仅能完成一个简单的f(x),所以目前业界最近有很多的人工智能最前沿工作均集中在如何实现有效的记忆机制,如何存储不变表示等方面。

  最后回到报告的题目,当下我们都苟且在方法一上,我以前不是那么相信从理论到实践;但现在我相信从理论到实践的方法二是存在的,而且就像大脑皮层简单复制自己一样可能没有那么复杂。方法二的到来比我们想象的更快。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭