网站:21ic.com
“未来早已到来,只是分布不均。”
——William Gibson
如何让算力在低功耗的情况下提升1000倍?乍一听似乎有些荒唐,但实际上利用量子叠加和量子纠缠概念的量子计算早已步入所有人的视线之中,看似遥远而又科幻的目标其实离现实越来越近。
英特尔作为一家围绕数据为中心的企业,目前正在逐步强化异构计算方面对算力和功耗的优化。实际上,英特尔未来的目标是让每个人都能获得百亿亿级次计算,英特尔研究院正在实现这一目标。
英特尔这家公司对“5”这个数字似乎情有独钟,不仅从5年前就开始布局xPU+oneAPI的软硬件生态超异构计算,还在近期展示了5年后的CPU路线图。但事实上,英特尔还规划了5年、十几年甚至更久才能达成的超前沿技术项目,充分释放数据的价值。
在近期的英特尔研究院开放日上,英特尔“秀”出其超前沿的技术,目标是追求1000倍以上的提升。英特尔实现1000倍提升主要是聚焦在集成光电、神经拟态计算、量子计算、保密计算和机器编程五大领域。
需要注意的是,虽然英特尔在明码数字上标注的是追求1000倍提升,但实际上神经拟态计算早已超过千倍提升,机器编程的提升更是从0到无穷大。
本次展示新技术既是一种布局,也是一种互补,将与现行的异构计算相辅相成,最终实现新技术架构和传统架构依据不同应用实施。
英特尔首先展示的1000倍提升的技术是集成光电,主要目的是将光科学与大规模芯片生产的成本效益相结合,这也是业界首次被提出来的概念。利用光互连I/O直接集成到服务器和封装中,可以对数据中心进行革新,实现1000倍提升,同时降低成本。
根据英特尔的介绍,虽然英特尔研究院经过几代的改进,从单链路多I/O协议架构演进为Thunderbolt和USB Type-C电气I/O,性能性能有了显著提升,但电气性能扩展速度较慢仍然较慢,因此英特尔探索是否通过光互连解决这一挑战。
英特尔认为现在是从电气I/O迁移到光互连I/O的重要拐点,究其原因是电气性能正在快速逼近物理极限,另外电气性能扩展的速度跟不上带宽需求的三年翻一番的需求,这就会产生I/O功耗墙,I/O功耗会逐渐高于所有现有插接电源导致无法计算。
光互连技术主要涉及五个技术要素,包括光产生、光放大、光检测、光调制、CMOS 接口电路和封装集成,而英特尔近期在几大技术构建模块上实现重大创新,并展示了集成光子学原型。
1、光调制:
传统硅调制器体积巨大,占据空间过多,因此IC封装成本很高。英特尔开发了微型微射线调制器,其体积缩小1000倍,因此在服务器封装上可以放置几百个这种器件。
2、光探测:
几十年来,业界一直认为硅几乎不具备光探测能力,但英特尔证明事实并非如此。英特尔开发了全硅光电探测器,这项技术可以降低成本。
3、光放大:
如若想要降低总功耗,集成半导体光学放大器是不可或缺的技术,在此方面英特尔推出了集成半导体光学放大器。
4、协同集成:
集成非常重要,不仅可以降低成本还可以优化功耗,也是集成光电最核心的工艺。英特尔主要利用3D堆叠CMOS电路与光子直连,这主要凭借的是英特尔强大的封装集成技术。
根据英特尔的介绍,目前还没有其他公司展示过将集成激光器、半导体光学放大器、全硅光电探测器和微型环调制器集成在一个与CMOS硅紧密集成的单个技术平台上的解决方案。
实际上,这得益于英特尔在硅光子上的长久研发,早在2016年,英特尔就推出了一款全新的硅光子产品“100G PSM4”能够在独立的硅芯片上实现近乎光速的数据传输,目前英特尔已经为客户提供超过400万个100G的硅光子产品。
笔者认为,行业已经意识到“以光代电”的重要性,行业对于光的高带宽、抗干扰特性有了越来越深的理解。英特尔展示的这一整套方案,最为重要的便是集成,也是最大的突破。
英特尔中国研究院院长宋继强表示,集成光电主要突破和进展就是把很多原来分离的尺寸比较大的模块,用新的技术集成到一起了。值得一提的是,这种技术目前已经开始应用了,已有客户板内开始利用这种设计。
英特尔在高效计算方面追求1000倍提升主要依托三种前沿计算技术,分别是神经拟态计算、量子计算和保密计算,这三种方式分别拥有不同的专长:
神经拟态计算灵感来源于大脑,英特尔用无人机和玄凤鹦鹉进行举例说明:无人机板载处理器要消耗18W的电力,利用最先进的AI技术,无人机只能勉强以步行速度通过预先编程在几扇门间自主飞行。反观玄凤鹦鹉,大脑仅仅2克重,能耗相当于50mW,体重比无人机轻20倍,能耗低350倍,但却可以顺利完成飞行、觅食甚至学习人类语言的能力。
英特尔方面则在2015年开始以现代神经科学理解作为灵感开发了一种新型架构,这种架构可以利用标准计算+并行计算+神经拟态计算的方式进行不同计算的分工。
神经拟态计算相比传统计算机架构来说,完全模糊了内存和处理之间的界限,处理就发生在信息达到之时,如同大脑中的神经元一样。换言之,就是把计算和内存混合在一起的一种全新架构模式。
2017年,英特尔发布了首款神经拟态芯片“Loihi”,这款芯片没有片外内存接口,通过二进制脉冲信息和低精度信号直接在芯片上计算,另外这款芯片还具有片上学习功能,远超目前所有芯片。2020年初发布,英特尔发布Pohoiki Springs 系统,该系统采用768个Loihi芯片,并包含1亿个神经元。
之后,英特尔成立英特尔神经拟态研究社区(INRC),目前已吸纳超过100个团体,拥有十几家500强企业成员,如埃森哲、空中客车、通用电气等。
根据本次会议上报告显示,INRC已经发表了40 多篇经过同行评审的论文,其中许多论文中都记录了量化结果,证明这项技术能够带来有效的性能提升。
部分机器人工作负载显示,Loihi的功耗比传统解决方案低40-100倍;大规模PohoikiSprings系统上相比CPU实施方法,功耗降低45倍,运行速度快100多倍;Loihi还可以解决较难的优化问题,如约束满足和图形搜索,运行速度比CPU快100倍,但功耗比CPU低1000多倍。
值得一提的是,虽然英特尔研究院开放日的主题是围绕1000倍提升展开,但实际上对于神经拟态计算研究1000倍已经一个很低的标准了,某些情况下英特尔的能效和计算速度是超过千倍的。
宋继强强调,神经拟态计算的应用最适合的是在边缘,因为这项技术可以以很高的能效比去完成以前高功耗的GPU模型算法才能做的事。
另外,英特尔宣布联想、罗技、梅赛德斯-奔驰和机器视觉传感器公司Prophesee加入英特尔神经拟态研究社区,共同探索神经拟态计算在商业用例上的价值。同时将在2021年第一季度,发布下一代“Lava”软件开发框架的开源版本,服务更多软件开发人员。
量子计算作为全新的计算模式已经逐渐成为许多企业和国家的发展重点,这一词语已经时常刷屏,但具体该怎么理解呢?
英特尔用硬币对这个概念进行了解释:传统的数字计算需要把数据编码为二进制数字,只有0或1两种状态,就像硬币的正面和反面。而量子计算使用量子位,可以同时处于多个状态,就像一枚旋转中的硬币,可以同时是正面和反面。
2个纠缠的量子位就可以表示同时混合的4种状态,而n个量子位就可以代表2的n次方种状态——50个纠缠的量子位所获得的状态数量就将超过任何超级计算机。如果有300个纠缠的量子位,那能够同时表示的状态就比宇宙中原子的数量还要多。
英特尔此前一直强调的都是量子的实用性上,这是因为量子位非常脆弱,目前仅仅有几百或数千量子位是没有办法造出一台商用级量子计算机。英特尔的量子计算拥有自旋量子技术、低温控制技术、全栈创新的特点,为构建商用量子计算机提供了坚实的基础。
另外,英特尔推出了第二代低温控制芯片Horse Ridge II,这款芯片是相比2019年推出的第一代产品拥有更高的集成度,支持操纵和读取量子位态的能力,支持多个量子位纠缠所需的多个栅极电位的控制能力。
在保密计算上英特尔主要依靠联邦学习和完全同态加密实现1000倍提升。既然算力被神经拟态计算和量子计算提升数千倍,背后隐含的是庞大的安全问题。英特尔认为,保密计算需要提供数据数据保密性、执行完整性和认证功能,防止机密泄露、防止计算篡改、验证软硬件真实性。
所谓联邦学习,主要是保护分属不同所有者的多个系统和数据。
英特尔表示,在零售、制造、医疗、金融服务等许多行业,最大的数据集往往都被限制在多方手里的数据孤岛中。这阻碍了使用机器学习工具从数据中获得洞察。通过联邦学习,英特尔将计算进行了拆分,这样就可以用各方本地的数据训练本地的算法,然后将获取的信息发送至中央聚合站点,数据不共享,价值仍释放。
完全同态加密则是一种全新的加密系统,它允许应用在不暴露数据的情况下,直接对加密数据执行计算操作。
该技术已逐渐成为委托计算中用于保护数据隐私的主要方法。
根据宋继强的介绍,具体的原理就是,原本明文的算法模型用同台加密的方法处理后,变成了一个1000倍大的数据流,将数据流训练后再返还为训练好的模型。很多情况下,这一数据流最好扩大到万倍以上才拥有实用性。
但与此同时,内存存储、计算量、网络通讯都被放大了很多倍,这会导致开销增加,因此这一技术尚未广泛应用,未来新一代的硬件支持便可实用化。另外,英特尔希望普及这项技术,目前正在研究新的软硬件方法,并与生态系统和标准机构开展合作。
除了在硬件上的1000倍提升,英特尔还着重提出在机器编程效率上的提升。诚然,强悍的硬件必然能够获得出色的表现,但编码效率提升意味着更快的上市速度和更少的成本。而这种提升就不仅仅是用1000这种数字进行量化了,实际对于未来业界的帮助是无穷大的。
英特尔为此提出了机器编程的概念,AI的诞生使得各行各业都变得越来越自动化,而未来机器本身也将会为自己构筑程序。机器编程与机器学习的不同之处就是计算机可以自动编写软件的软件。
“机器编程”这一词在英特尔研究院和麻省理工学院联合发布的《机器编程的三大支柱》论文中首次提出,论文中认为机器编程的三大支柱是意图(Intention)、创造(Invention)和适应(Adaptation),开发机器编程的主要目的在于通过自动化工具提升开发效率。
根据英特尔的介绍,异构计算的到来,使得编码的难度越来越高,未来神经拟态计算、量子计算、保密计算成为主流也会使得编码越来越复杂。数据显示,全球78亿人中,只有2700万人会编写程序,占比不到1%。很多不懂得编程的农业、生物、建筑、医疗、金融等专家其实非常清楚地知道想要软件做什么,但市面又缺乏类似的软件。利用机器编程便可以让每个人都能创建软件,英特尔的愿望是将1%变为100%。
另一方面,数据显示程序员在编写程序时,50%的时间都用在Debug上。利用机器编程可以可以自动识别、分析、纠正bug,提高程序员2倍的开发效率。
文行至此,可能很多人会疑问编程人员是否会被替代,程序员是否会失业?根据英特尔的介绍,实际上机器编程不仅不会取代专业程序员,还会创造数千万到数亿个就业机会。这是因为,机器编程需要大量的数据基础,而这些专业数据仍然需要由专业程序员编写,因此高技能程序员需求将会持续增加,专业程序员写的程序越多,机器编程就更先进;对于不会编程的人员来说,只需向机器表达自己的想法就能创造相应的软件,可以降低行业准入门槛。
“未来10年是架构创新的黄金10年”,宋继强表示,提出追求1000倍提升这一主题,是英特尔研究院设立项目目标提出的一个要求,最终将要追求千倍级的改变。
英特尔之所以强大的原因便是不断的研发和投入。此前,笔者曾经介绍英特尔正在布局超异构计算,并在硬件上拥有CPU、独立GPU、FPGA、eASIC、ASIC、VPU、内存和存储等,在软件上拥有统一开发平台oneAPI。
英特尔本次“秀”出的全新技术,都是需要5年甚至十几年才能实现的超前沿技术。英特尔此前曾经说过:“作为一家高科技公司,永远要站在最前端,看到别人看不到的东西,不断创新技术去抓住每一次增长的机会,同时也必须要有驾驭危机的能力。”
为H3C、腾讯插翅腾飞!intel这次真的让人直呼Yes
英特尔没输!重磅发的这些技术“渡劫”!
再添最强eASIC!Intel付得起xPU的巨额尾款吗?
21ic独家“修炼宝典” | 电子必看公众号 | 电子“设计锦囊”