深入了解人工智能芯片:痛点在哪儿?
扫描二维码
随时随地手机看文章
由中国电子学会主办的第十三届中国电子信息技术年会在苏州隆重开幕。大会设有主论坛、专题论坛和展览展示等环节,并发布了《中国电子学会会士观点(2018)》等内容。
会上,中国电子学会电子设计自动化专家委员会主任委员、清华大学微电子研究所所长魏少军发表了题为《人工智能芯片:痛点在哪儿?》的演讲,深入浅出地解读了如今AI芯片的发展现状。
从上图左边的几张曲线图可以看出,人工智能初创企业的数量、融资额度和并购数量等在2016年都有大幅增长,如今人工智能企业的空间已经处于拥挤状态。上图右侧列出的则是一系列的西方企业。
一,人工智能崛起的三个基本要素
关于人工智能的发展,早在上世纪50年代,达特茅斯会议就已经提出相关概念。到了80年卡内基大学才提出机器学习概念,并出版了Mechine Learing的期刊。然而人工智能真正引起大众关注的是2016年、2017年AlphaGo战胜了人类棋手李世石和柯洁。
人工智能的再次崛起并不是偶然的,主要得益于三大突破:算法、数据和算力。三者缺一不可,而算力则依赖芯片。魏少军表示:“如今的人工智能、大数据、云计算背后的真正支撑点就是芯片,没有芯片一切都是假的,这也是人工智能技术绕不开的话题。”
在没有人工智能的时候,智能化已经成了热点。而且新一轮发展的核心驱动力就是智能化,它是由智能和能力组成。
将人脑和电脑作比较,在人脑内,有140亿神经元,神经传输速度120米/秒,工作频率很低,计算能力达到10的16次方CPS,功耗只有20W,重量为1.2-1.6公斤,把大脑皮层摊开,其面积达到0.25平方米。上图右侧为天河二号的计算机芯片数据,其大概有上百亿个晶体管、传输速度为每秒340万公里,工作频率达每秒42万亿次,运算能力极强为10的34次方CPS,功耗为24MW(要一个单独的小型发电站),其占地37平方米,重量720吨。
上图讲的是人工智能模拟人脑的两种方式,还有该方式下的代表芯片。
二,芯片是人工智能技术发展过程中绕不开的话题
说到GPU,魏少军表示:“GPU是机器学习平台比较稳定和成熟的代表。”GPU的计算能力是CPU的6倍,存储带宽是CPU的4倍。且GPU的计算方式恰好与深度学习的神经网络非常匹配。
除了GPU,还有FPGA和TPU,英特尔还开发了CPU+GPU的解决方案。谷歌开发的TPU则主要着眼于提高性能并优化功耗,其功耗已经下降刀了GPU环境的10%。
IBM的True North是模拟人脑学习的重要突破,上图有一些它的参数。魏少军认为如果实现这样的产品将会非常“可怕”,它可以形成像人一样的机器,且可以成为家庭中的成员。
除了IBM,还有其他的企业和研究单位也在做类似的工作,代表的产品概念如Neuromorphic和In—memory compuTIng。
英特尔仍在走专用集成芯片的老路,功耗及成本有优势,不过需要足够大的销量。在深度学习领域,由于算法在不断演进,且演进的速度非常快,很难在一个有限的时间内积累足够的销量。这是深度学习领域ASIC遇到的极大挑战。