随着深度学习和AI应用的不断演进 AI芯片厂商不断涌现
扫描二维码
随时随地手机看文章
随着深度学习和AI应用的不断演进,近两年AI芯片厂商不断涌现。在国内,贴上AI芯片标签的公司已经超过40家,其中的佼佼者们获得不菲融资。
尽管目前AI在行业应用方面的渗透有限,但是算力的供需还是不平衡。近日,华为智能计算业务部总裁邱隆就向21世纪经济报道记者表示:“原来由摩尔定律驱动的计算产业,面对爆发式的计算需求无以为继。摩尔定律在正常的时候,以每年1.5倍增长,50%的算力增长,在过去几年间,每年的算力实际增长只有10%。人工智能在过去几年间,算力增长了30万倍,至少每一年我们的算力要增长10倍。”
这意味着人工智能除了算法外,对算力也存在强大的需求。面对增多的B端应用场景,也有更多的AI芯片公司加入角逐。从功能角度细分,AI芯片可分为训练芯片和推理芯片,在训练方面,目前英伟达独树一帜,但是在推理方面,可选择的芯片种类不只是GPU,还有FPGA(现场可编程门阵列)、ASIC(专用集成电路)等。在各个分类中,芯片巨头们各有千秋,接下来还要考验落地情况。
群雄混战
芯片目前主要是提供算力支持,2018年,AI芯片大厂和创业公司们均有不少新动作。
最大的玩家当属英伟达和英特尔。英伟达的GPU抓住了计算设备需求的关键时机,在图形渲染、人工智能和区块链领域的计算表现突出,希望成为真正的算力平台,其中,英伟达在训练方面的代表芯片就是Tesla V100。由于英伟达GPU布局AI的时间早于英特尔、赛灵思等公司,整体生态较为完整,产品在IT公司中得到广泛应用。
英特尔则通过收购案来弥补AI芯片的赛道:2015年167亿美金收购FPGA巨头Altera.FPGA在云计算、物联网、边缘计算等方面有很大的潜力。随着5G浪潮的到来,物联网的数据分析及计算需求会暴增,物联网的接入节点至少是数百亿级的规模,比手机规模要高出1-2个数量级。物联网的典型需求是需要灵活使用算法的变化,这是FPGA的强项,FPGA可以通过自身结构的改变来适应定制化计算场景的需求,能为不同类型的设备提供高效芯片。
同时,英特尔还收购了Nervana,计划用这家公司在深度学习方面的能力来对抗GPU,Nervana的最新版深度学习芯片将在2019年量产。此外,英特尔还收购了视觉处理芯片初创公司 Movidius、自动驾驶公司Mobileye。
算法巨头谷歌则另辟蹊径,以ASIC类型的芯片来满足自身需求。具体来看,谷歌的TPU通过脉动阵列(systolic array)这一核心架构来提升算力,2018年发布的TPU3.0版本采用8位低精度计算节省晶体管,速度能加快最高100PFlops(每秒1000万亿次浮点计算)。
再看国内,华为在2018年10月发布了两颗AI芯片——昇腾910(max)和昇腾310(mini)。昇腾910主要用于云端计算,其半精度算力达到了256 TFLOPS,预计将于2019年第二季度量产;昇腾310用于终端低功耗场景,拥有8TFLOPS半精度计算力,目前已经量产,但是并不对外销售。
国内的明星初创企业也纷纷获得投资或者收购。2018年中,寒武纪推出面向数据中心市场云端智能芯片 MLU100,浪潮、联想、曙光的AI服务器产品将搭载MLU100 芯片。但是在手机端,华为麒麟芯片将用达芬奇架构代替寒武纪架构。另一家公司地平线选择自动驾驶的场景,奥迪是其合作伙伴。产品包括基于旭日2.0处理器架构的XForce边缘AI计算平台、基于征程(Journey)2.0 架构的地平线 Matrix 自动驾驶计算平台、核心板旭日X1600、智能摄像机解决方案等。
深鉴科技则在2018年被赛灵思收购,价格约3亿美元。深鉴科技一方面提供基于神经网络深度压缩技术和DPU平台,为深度学习提供端到端的解决方案。另一方面通过神经网络与FPGA的协同优化,提供高性价比的嵌入式端与云端的推理平台,已应用于安防、数据中心、汽车等领域。
挑战与趋势
整体而言,英伟达的实力在第一梯队,但是竞争者众多,除了上述企业外,AMD、高通、联发科、三星等公司均在AI芯片上有所布局,并且战况愈发激烈。
不过,目前在AI芯片领域没有哪一家占据绝对优势,集邦咨询向21世纪经济报道记者表示:“初创企业方面,就我们的观察,毕竟仍在草创阶段,客户的采用意愿,以及导入后,终端市场的接受状况,将是未来需要观察的地方。总结来看,还是国际芯片大厂的布局速度较快。”
从国内和国外的角度看,一位AI业内人士告诉21世纪经济报道记者:“国内外主要是技术结构上的差距,底层技术科学上和国外的差距显著,但是应用层面上差距不大,甚至有创新的应用点。不少AI芯片公司通过定制化服务小规模客户,针对B端场景进行开发,比如专门处理语音、图像。”
同时,AI芯片也面临不少挑战,杜克大学教授陈怡然就曾提到,AI芯片在设计方面有四大挑战。
其一是大容量存储和高密度计算,当神经深度学习网络的复杂度越来越高的时候,参数也会越来越多,怎么处理是一大难题;第二个挑战是要面临特定领域的架构设计,因为场景越来越丰富,这些场景的计算需求是完全不一样的。怎么样通过对于不同的场景的理解,设置不同的硬件架构变得非常重要。
第三个挑战是芯片设计要求高,周期长,成本昂贵。从芯片规格设计、芯片结构设计、RTL设计、物理版图设计、晶圆制造、晶圆测试封装,需要2到3年时间,正常的时间里软件会有一个非常快速的发展。但是算法在这个期间内将会快速更新,芯片如何支持这些更新也是难点。
第四个挑战是架构及工艺。随着工艺不断的提升,从90纳米到10纳米,逻辑门生产的成本到最后变得饱和。也许在速度上、功耗上会有提升,但单个逻辑生产的成本不会再有新的下降。这种情况下如果仍然用几千甚至上万个晶体管去做一个比较简单的深度学习的逻辑,最后在成本上是得不偿失的。
在芯片的产业链中,生产环节主要依靠台积电、格芯等芯片代工厂商。但是国内在设计领域逐步前进,并且AI专用芯片相对于CPU、GPU来说难度没有那么大,因此不少创业公司也为自己精通的行业定制AI芯片。
2018年以来,不少以算法为主的语音、视觉、自动驾驶等公司也开始研发AI芯片,将算法和芯片进行更好的结合,来针对多样化的场景,未来软硬结合将会是趋势。