英特尔第三代Xeon Phi芯片剑指龙头英伟达
扫描二维码
随时随地手机看文章
在最新的IDF16开发者大会上,英特尔宣布了其最新专门用于人工智能处理的处理器——第三代Xeon Phi,代号“Knights Mill”,剑指该领域中最大厂商英伟达。Xeon Phi处理器将于2017年推出,英特尔宣称在Xeon Phi处理器中添加了许多“浮点”计算,这对于机器学习算法来说十分重要。目前英特尔Xeon处理器已在数据中心被广泛部署,并且也被用于几乎所有的深度学习计算任务。不过,部分用户也部署了用于人工智能任务的辅助处理器。这些辅助处理器大多是来自英伟达的GPU(图形处理单元)。英特尔表示,Xeon Phi处理器产品线比标准Xeon处理器有更多的处理器核心。
在数据中心服务市场上,毫无疑问英特尔(Intel)是老大,IDC认为它的市场份额达到了恐怖的99%。但是在最新、最热的细分市场——人工智能上,英特尔却没能拔得头筹。在这个领域中,现在正如鱼得水的是图像芯片专家英伟达(NVIDIA),它的产品在深度学习神经网络中大受欢迎,被广泛用于像图像识别、语音识别以及自然语言处理等人工智能任务。
英特尔提到,Xeon Phi处理器可以运行大部分数据分析软件,同时无需用到可能导致分析速度放缓的外部处理器。这是Xeon Phi相对于其他产品的关键优势。英特尔高管还表示,相对基于GPU的方案,Xeon Phi可以搭配更多内存。
英特尔希望这个芯片能在快速发展(但仍属小众)的机器学习市场获得一席之地,英特尔表示:所有服务器中只有7%的被用来处理有关机器学习的算法,另外只有0.1%是在运行深度神经网络(机器学习的一个分支,模拟神经元和大脑的突触来处理非结构化数据)。特别是时下最热门的深度学习,通过最新发布的Xeon Phi处理器,英特尔希望能在这个市场中后来者居上。
目前在深度学习领域中,GPU发挥了相当重要的作用。英伟达的GPUs之所以大行其道是因为它们能进行“并行计算”——该技术可以同时进行多重运算。这使得其在运行深度学习神经网络时比通用处理器要快得多。以前需要大量的CPU以及超级计算机进行的运算工作,现在只需要少数GPU组合就可以完成。这大大加速了深度学习领域的发展,为神经网络进一步发展提供了计算基础。熟悉深度学习的人都知道,深度学习是需要训练的,所谓的训练就是在成千上万个变量中寻找最佳值的计算。这需要通过不断的尝试实现收敛,而最终获得的数值并非是人工确定的数字,而是一种常态的公式。通过这种像素级的学习,不断总结规律,计算机就可以实现像像人一样思考。
英特尔执行副总裁以及数据中心组总经理Diane Bryant在采访中提到:如果这种计算需求迅速扩大的话,GPUs解决方案将会遇到问题。“GPUs解决方案没法扩张——这个市场目前仍然处于初级阶段,所以目前使用GPUs就能完成任务,但是在未来GPU没办法进一步扩展。”
此外,英特尔还找来百度来替自己背书。百度宣布将会使用Xeon Phi芯片来运行它的自然语言处理服务“Deep Speech”。此前百度一直都是使用英伟达的GPUs来加速自己的深度学习模型,就在上月现任英伟达CEO黄仁勋(Jen-Hsun Huang)选择在斯坦福大学与深度学习专家举行一个小规模的交流会,在会上发布号称当下性能最强悍的GPU显卡——TITAN X,并把第一块TITAN X显卡送给了现任百度美国研究员首席科学家Andrew Ng(吴恩达)。如今百度选择在IDF16上宣布将Xeon Phi芯片来运行它的自然语言处理服务“Deep Speech”,对于百度未来是否还将继续使用英伟达的技术,百度一名发言人拒绝透露有关信息。
这表明在这场有关AI(人工智能)未来的战争中,英特尔表现得越来越激进。在最近发布的一些基准测试中,英特尔宣称Xeon Phi处理器比英伟达的GPUs快2.3倍。
不过英伟达在最新的博客中提到英特尔使用的是过时的软件和硬件,得出的结果并不具有说服力。英伟达声称如果英特尔使用最新的技术的话,英伟达将会在机器学学习模型训练上比英特尔快30%。英伟达另外提到,如果根据最新数据用4个Pascal 架构组成的TITAN X GPU,其运行速度是4个Xeon Phi 处理器的 5 倍多。
“可以理解,刚进入这个领域的新人可能没有意识到这个领域中软硬件正在发生的进步。”英伟达在其最新官方博客中提到。
针对英伟达的激烈反击,英特尔最新的回复是:“完全可以理解英伟达担心英特尔在这一领域的动作,英特尔所有的表现数据都是基于当下的公开可用的解决方案而来,我们对数据有信心。”无论基准结果如何,英特尔称光靠GPU是无法完成所有的加速任务的。 此外作为英特尔进军人工智能的一部分,英特尔上周宣布以4.08亿美元收购AI初创公司Nervana。