英特尔欲借此芯片挑战英伟达AI领域!
扫描二维码
随时随地手机看文章
英特尔已公布了关于人工智能的计划,但至少有一块关键拼图尚未完成。
英特尔此前收购了Nervana Systems,并宣布将继续销售该公司的所有产品。这些产品面向高端应用,尤其是神经网络的训练。这一领域目前的领先者是英伟达。与此同时,英特尔收购Movidius的交易尚未完成,因此在计算机视觉和边缘网络方面还有很大的缺失需要填补。此外,英特尔还公布了多个人工智能软件产品、服务和合作项目。
在近期举行的英特尔人工智能活动上,Movidius CEO曾短暂露面。他没有透露,这笔交易将于何时完成以及障碍是什么。他表示:“我们期待加入英特尔大家庭。”他介绍了应用至汽车、无人机、安防摄像头和其他产品的低功耗芯片的计划。
即使这笔交易完成,英特尔也无法提供完整的人工智能产品。不过,毫无疑问这是英特尔的目标所在。
英特尔CEO科再奇(Brian Krzanich)在此次活动的主题演讲上表示:“人工智能将变革我们目前所知的大部分行业,因此我们希望成为人工智能领域可信赖的领导者和开发者。”
Nervana CEO及联合创始人奈文·拉奥(Naveen Rao)是此次活动上的明星。英特尔已经为Nervana的全系列产品大开绿灯,其中涉及处理器、板卡、系统、软件和人工智能云计算服务。
Nervana的加速处理器Lake Crest将于明年推出。据称在同样的能耗水平上,相对于目前的顶级图形处理器,这款产品在运行神经网络任务时将会有更好的性能。这款芯片将使用台积电的28纳米工艺制造。
拉奥首次展示了这款芯片从头开始设计的架构。这款芯片可以加速各类神经网络,例如谷歌(微博)TensorFlow框架。芯片由所谓的“处理集群”阵列构成,处理被称作“活动点”的简化数学运算。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。
Lake Crest利用私有的数据连接创造了规模更大、速度更快的集群,其拓扑结构为圆环形或其他形式。这帮助用户创造更大、更多元化的神经网络模型。这一数据连接中包含12个100Gbps的双向连接,其物理层基于28G的串并转换。
这一2.5D芯片搭载了32GB的HBM2内存,内存带宽为8Tbps。芯片中没有缓存,完全通过软件去管理片上存储。
英特尔并未透露这款产品的未来路线图,仅仅表示计划发布一个名为Knights Crest的版本。该版本将集成未来的至强处理器和Nervana加速处理器。预计这将会支持Nervana的集群。不过英特尔没有透露,这两大类型的芯片将如何以及何时实现整合。
拉奥表示,整合的版本将会有更强的性能,同时更易于编程。目前基于图形处理芯片(GPU)的加速处理器使编程变得更复杂,因为开发者要维护单独的GPU和CPU内存。
拉奥还表示,到2020年,英特尔将推出芯片,使神经网络训练的性能提高100倍。一名分析师表示,这一目标“极为激进”。毫无疑问,英特尔将迅速把这一架构转向更先进的制造工艺,与已经采用14纳米或16纳米FinFET工艺的GPU展开竞争。
最初的加速处理器需要通过PCI-E总线去连接主机。近期,英特尔决定更进一步,不仅提供应用,也提供云计算服务。
这款产品是英特尔大胆的一步。英特尔希望凭借这款产品取得相对于英伟达的技术优势。目前,后者的GPU芯片被广泛用于神经网络的训练。这是一项非常依赖于处理器的任务。百度等公司的研究人员表示,为了限制数据集的规模,他们往往要花几个月时间。
拉奥表示:“目前,艺术级的神经网络模型需要花几周到几个月时间去训练。”他指出,百度研究院使用的一个模型需要消耗百万万亿次运算。
科再奇则表示:“Nervana定位高端,给我们带来了深度学习最顶尖的性能。”
然而,这仍是一个规模较小的新兴市场。
英特尔数据中心集团总经理戴安·布莱恩特(Diane Bryant)指出,去年只有0.15%的服务器被专门用于神经网络训练。布莱恩特指出,英特尔收购人工智能云计算服务Saffron Technologies已吸引了终端用户。
4名研究员已同意加入Nervana的人工智能顾问委员会,帮助该公司芯片架构未来的发展。Nervana将研究多种方式去优化算法,简化神经网络模型,探索降精度运算的新方向,以及如何扩大芯片规模。
分析师则对英特尔拥抱非x86架构表示看好。
Moor Insights & Strategy总裁帕特里克·莫尔海德(Patrick Moorhead)表示:“如果去看看,他们如何迅速将Altera、Nervana、Phi、至强和其他所需的软件整合在一起,那么对英特尔这么大规模的公司而言,这令人印象深刻。目前的情况将取决于英特尔如何无错地执行。”
尽管没有针对人工智能进行优化,但英特尔仍然非常专注于至强Phi。这类多核x86芯片正被越来越多地用于超级计算机的加速处理器。
明年将推出的Knights Mill版本将可以支持最多400GB的主内存,远远超过当前GPU的16GB主内存。Knights Mill使用其中一个x86核心作为集成的主控制器,并支持多种精度的运算。
英特尔已开发了系统,使用最多128个当前Knights Landing版本的Phi芯片。英特尔并行计算实验室主任普拉迪普·杜贝(Pradeep Dubey)表示:“我们计划将芯片个数扩大至数百个,甚至数千个。”
在软件方面,英特尔明年初将发布并开源面向Nervana的图形编译器。英特尔也在优化运行在x86处理器之上的主流人工智能框架,包括在今年底之前推出TensorFlow的一个版本。用于深度学习的SDK将于1月份推出。
英特尔正在从多个方面去培育人工智能开发者社区。
英特尔与谷歌达成了广泛合作,优化基于x86处理器的云计算代码。英特尔宣布了为期5年、总额2500万美元的投资,与Broad InsTItute合作开发用于基因处理的工具和参考架构。英特尔还专门为Nervana架构创建了新的开发者社区,并启动了新的人工智能学生开发者项目。