近年来,在外部环境的推动下,我国芯片技术不断获得新突破,技术本土化的趋势越来越明显。6月17日,中兴通讯在互动平台表示,公司具备芯片设计和开发能力,7nm芯片规模量产,已在全球5G规模部署中实现商用,5nm芯片正在技术导入。这意味着中兴研制的5nm芯片也“在路上”了。 根据德国专利数据公司IPlytics 6月2日公布的最新数据,中兴5G技术优势也十分明显,以2561项必要标准专利位列全球前三,仅次于华为和三星。而中兴执行副总裁、首席运营官谢峻石也指出,过去三年来,中兴继续加大对技术研发的支持,每年用于研发的资金高达121亿元。未来,中兴将更快速将技术领先转化成市场领先,从而提升利润水平。 此前,在中企中能够研发出5nm工艺的5G芯片,只有华为旗下的海思。据了解,该款芯片就是传闻中的麒麟1020,预计将在下半年量产,并搭载于Mate 40系列手机中首发。然而,据日经新闻消息,华为Mate 40很可能会因供应链问题而延迟发售,目前正在积极寻找替代供应商。 不过,随着我国芯片技术的不断突破,部分中企已经有在一些关键零部件领域成为替代供应商的能力。据媒体5月1日报道,随着芯片制程工艺突破至14nm,中芯国际拿下了华为的麒麟710订单。除此之外,华为还在海外发展供应商,促进供应链的多元化,华为Mate 40与消费者见面的日子不会太远。 可以说,中国的半导体技术正在飞速成长。 中兴通讯可以提供全系列的5G基站,从700M、800M、900M,到1.8G、2.1G、2.6G,以及到26G和28G的全系列频谱基站,可以满足包括城区、郊区、室内深度覆盖热点,特别是中兴面向铁路以及高铁覆盖的解决方案做到了业界第一。 而6月3日国际半导体产业协会发布的《全球半导体设备市场报告》显示,我国半导体设备一季度的出货量年增长高达48%,增速全球第一。中国的半导体供应链本土化也将挤压了美企在华市场份额,美国限制措施将会使得当地半导体行业损失70亿美元。
英特尔首创核心处理器于2006年首次亮相。从那时起,英特尔已经出现了五、六代以上的酷睿i3,酷睿i5和酷睿i7 CPU,但是大多数消费者仍不知道英特尔酷睿i3,酷睿i5或酷睿i7有什么不同?拥有一个有更多内核,更快的时钟速度或诸如超线程之类的高级功能的CPU是否值得? 除非您打算采用AMD的新Ryzen处理器(要了解哪种CPU最好:Intel Core i7或AMD Ryzen?否则几乎可以肯定,您将不得不在Intel的三个处理器之间做出选择。消费级家庭处理器, 过去,我们分析过英特尔酷睿i3,i5和i7 CPU在英特尔第七代产品等方面的区别。Kaby Lake处理器以及Google的网状节点,Wi-Fi系统是否符合宣传。但是随着英特尔新的Coffee Lake,Ice Lake和Whiskey Lake CPU的出现,整个新一代的PC购买者都面临着同样熟悉的决定。 Core i3,Core i5,Core i7 简而言之的区别 如果要将事情归结为简单明了的东西,那么通常来说,大多数酷睿I7CPU优于大多数酷睿I5 CPU,而后者又比大多数Core i3 CPU好。 在此之下,您将拥有类似于Intel Celeron和Intel Pentium处理器的价格。由于本文专门针对Intel Core i3,Core i5和i7 CPU之间的差异,因此我们将不深入探讨它们以及它们与Intel Core处理器的比较。 如果您要组装一台电脑,则需要牢记的是,每个Intel Core处理器系列所连接的I3、I5和I7只是用来表示它们的相对处理能力。它们与每个CPU的内核数量或每个内核的速度无关。英特尔的Core i7 CPU没有七个核心,Core i3也没有三个核心。 英特尔酷睿CPU属于哪个家族基于一系列标准,这些标准包括内核数量,时钟速度(以GHz为单位)和缓存大小,它们集成的英特尔技术的数量也起着作用。换句话说,与i5或i7处理器相比,在i3处理器中发现诸如Turbo Boost和超线程之类的东西的可能性要小得多。 在最基本的层面上,这些数字反映了每类英特尔酷睿CPU相对的位置,旨在使消费者了解他们应该期望的每种性能。 本质上,Intel希望通过此CPU分类系统传达的想法是PC制造商应该期望: Intel Core i3为基本任务提供足够的性能; 英特尔酷睿i5,可为大多数任务提供良好的性能; 英特尔酷睿i7,可为最苛刻的任务提供出色的性能; 由于某些较早的i7 CPU可能无法胜过较新的i5 CPU,因此,这些名称不应总是被视为福音,但是如果您想通过一种简短的方法来了解哪种处理器更好,那么每个Intel Core附带的数字代表了第的性能。 英特尔酷睿i3,i5和i7处理器也可以按照目标设备进行分组。有些是供我们在笔记本电脑中使用的,有些则是用于台式电脑。功耗是最大的区别,因为移动设备中的CPU通常必须以更少的功耗来完成工作, 在某些情况下,英特尔i5和i7 CPU的台式机和笔记本电脑变体在规格和性能上的差异可能非常明显。但是,为避免混淆,让我们从专门讨论桌面变体开始。 尽管Intel Core CPU内的内核数量不是全部,但内核越多,可以同时处理更多任务(称为线程)。这意味着具有更高内核数的PC将更适合于需要多线程的任务,例如Web服务器,Web浏览器和某些视频游戏。 尽管没有硬性规定可以解决,但与i5或i7相比,在i3中的核心更少。除了少数例外,例如英特尔的第8代Core i3“ Coffee Lake” CPU,大多数Core i3 CPU只有两个内核。 原因是i3处理器的设计价格更低,而不是性能的极限。它们通常出现在针对预算更为精打细算的市场PC机中,在该市场中,对设备的需求变得可承受,从而抵消了对更高性能的需求。 如您所料,英特尔酷睿i5处理器往往比i3处理器更强大。部分原因在于更快的平均时钟速度。部分原因归结为其他核心。更多的内核意味着这些CPU可以一次处理更多的线程,而更快的时钟速度意味着它们可以更高效地完成任务。 在过去的几年中,英特尔的Core i5 CPU系列通常围绕具有多个四核的CPU组成。但是,最近(如第9代Coffee Lake更新),英特尔已将其许多i5 CPU的核心提高到了六个内核。其中包括诸如酷睿I5 9400,酷睿I5 9500和Intel 酷睿I5 9600之类的。 最后,您拥有Intel的Core i7 CPU。同样,您正在查看更快的平均时钟速度和其他内核。英特尔的Kaby Lake i7核心CPU仅包含四个内核,而更现代的Coffee Lake系列i7CPU多达八个内核,标准时钟速度范围高达3.6Ghz。 在这一点上,您可能想知道时钟速度有多重要。答案:非常重要。 首先,通常,时钟速度越高越好。但是,由于所涉及的散热问题,具有更多内核的处理器往往会以较低的时钟速度运行。通常,选择CPU涉及在能够提供更快时钟速度的CPU或具有更多内核的CPU之间进行选择。 尽管速度更快的内核可能比速度较慢的内核更有效率,但对于您要使用计算机完成的任务而言,可能不一定会更好。 许多应用程序仅运行单线程,而其他应用程序则设计为利用多个线程。对于后者适用的情况(例如视频渲染和游戏),与拥有更快的内核相比,拥有更多的内核将提供巨大的改进。 对于更多日常事务,例如Web浏览,与功能更强大的i7相比,时钟频率更高的i5处理器可能会为您带来更多收益。不过,有时候拥有更多的核心比i5或i7 CPU所包含的更为重要,并且通常情况下,一个Intel Core CPU与另一个Intel Core CPU之间的选择将取决于您是否想要拥有更多内核的CPU或时钟或更好的CPU速度。 最后还需要考虑,CPU标准时钟速度和Turbo时钟速度之间存在重要差异。前者是Intel CPU能够提供的正常时钟速度。后者是指使用Intel的Turbo Boost功能可以达到的最快速度。
对于系统卡顿的问题,很多建议都是扩大内存容量。但是当你选择换一个大容量内存条的时候,只看内存够大就行了吗?或许有些人还会选择看内存频率,但是这远远不够,选择内存条,我们还需要这样做。 很多人听到“内存条“这个名字,就直观地认为它是电脑的存储器,就像仓库一样。也不能说这样想不对,但是还是有一定差别的。就像大家所知道的硬盘,它才是真正意义上的”中心仓库“,而内存条只能说是一个”中转场地“,主要是用于临时储存,所以在速度上有一定的优势。在重启之后,之前打开相关程序所存储在上面的数据就会自动进行清空。 无论是笔记本还是台式机,它们都是有装内存条的。但是大家在选择的时候要注意了,它们的内存条是不一样的,就连长度大小也不一样,记得别弄混了。市面上的内存条有很多牌子,大家知道的一般也就是那几个有名一点的,像海盗船、金士顿、影驰等等。另外还有很多,比如芝奇、英睿达、金泰克等等。而且即使是同一品牌下,也有高端、中端、低端之分。 那么除了台式、笔记本的区别,还有品牌的差别之外,具体在选择一款内存条的时候该考虑哪些因素呢?接下来就简单介绍一下。 1、 内存容量 这一点是大多数人都知道要看的,说句不好听的,即使是什么都不懂的也知道要看容量。一般来说,容量肯定是越大越好,目前一般都是8G起步的。那么这是否意味着我们就必须选择大容量的呢?并不是,还是要看自己的一个需求。像一般的普通用户,8G足够满足你的日常需求了。那如果是专业作图、做视频或者是要运行大型游戏的用户,估计就要选择两根8G的双组通道了。 2、 内存频率 虽然速度并不完全是由频率决定的,还跟主板的搭配等其他因素有关,但理论上来说,频率越高则速度也会越快。但注意着这是理论上说法,像有的主板与内存虽然兼容,但反而会降低其频率。一般来说,若是DDR4,选个2400MHz就够了。当然若是有更高需求,也可选择3000MHz及以上的。 3、 内存时序 这是很多人都会忽略的一点,其实就是描述性能的4个参数,它会影响到内存条速度的一个延迟时间。其中CL值是影响较大的,所以一般会有直接标注。这里只需要记住一点,数字越小代表着性能越快。 4、 内存代数 这就是要考虑到与主板是否兼容了,若是不兼容,其他数据再好也是白搭。目前一般都是DDR4,那既然有4,肯定也有1、2、3吧,以前确实有,但是现在基本上已经被淘汰了,所以很少见。所以在选择之前,一定要事先查询一下自己的电脑是支持哪一代的。 其实要考虑的因素还有很多,像内存颗粒、单通道还是双通道等等,但一般来说,以上四点是必须要考虑到的。如果有更换内存条的想法,建议大家还是需要问问专业人士。
有些人喜欢通过自己搭配硬件组装最适合自己的电脑。但是,常常有些人不知道3D建模和3D渲染是吃什么硬件的?游戏显卡和专业图形显卡又有什么区别? 一、3D建模和3D渲染是吃什么硬件的? 一般来说,3D渲染吃的是CPU,对于这样的设计建议高性能CPU,对显卡的性能要求并不高,而3D建模的设计师,3D建模吃的是显卡,建议搭配高性能的专业图形卡。 二、游戏显卡和专业图形显卡有什么区别? 1、侧重方面区别 通常来说,游戏显卡虽然也可以很好地支持各种OpenGL和Direct3D游戏,但是更多地专注于游戏中需要的功能,对于在游戏中明显不会用到的那些功能如线框模式的抗混淆(反锯齿)、双面光照、3D动态剖切(3D Windows Clipping)等功能一般是不会在硬件中予以支持的。而专业图形卡则要对各种专业软件所涉及到的功能在硬件上予以支持。 2、驱动程序区别 游戏显卡在驱动程序中只需要对游戏中常用到的部分OpenGL函数能够提供很好支持就可以了; 专业图形卡由于面向范围广泛的专业应用软件,因此它必须要能够对所有OpenGL函数都予以支持。 3、兼容和优化区别 专业图形显卡的驱动程序完全针对OpenGL的所有函数进行优化,同时,针对各个不同的应用程序的特别之处采用专门的解决办法,如在驱动程序里面提供各种主要软件的优化设置选项,提供专门的驱动程序。而游戏显卡在这方面没有采取任何措施,因此采用游戏显卡来运行专业软件的时候经常会出现各种奇怪的兼容性问题,如显示错乱,性能突然下降,以至于死机,等等问题。
半导体激光隐形晶圆切割机形成产能后,将从明年开始逐步提高产能,最终根据市场需求情况,稳定在500台以上的年产能,产值计划达到20亿元。中国长城的网络安全和信息化以及高新电子核心主业板块,将增添高端智能制造装备的硬核内容。 记者从河南郑州了解到,由中国长城郑州轨交院研发的国内首台半导体激光隐形晶圆切割机自面世以来,获得市场强烈关注,目前已接到行业客户意向订单60台,预计今年能创造营业收入2亿元以上。 2020年5月,中国长城旗下郑州轨道交通信息技术研究院联合河南通用智能装备有限公司,成功研制出填补国内空白的半导体激光隐形晶圆切割机,实质突破我国半导体激光隐形切割技术。 研发成功后,郑州轨交院组织了行业重点客户进行半导体激光隐形晶圆切割机设备试用,客户认为相比同类产品该设备具有切割效率、良品率高等明显优势,能够出色地满足不同材质切割的工艺要求。 相比国外半导体切割智能装备,半导体激光隐形晶圆切割机在焦点数量、焦点动态补偿、加速度、切割速度、最大运行速度、开机率等重要参数上具有明显优势。设备采用的激光隐形切割技术,相比传统水切和激光表切,具有激光焦点小、无晶圆碎裂、无环境污染等优点。 设备研发成功后,地方高度重视。郑州市科技局组织第三方机构对半导体激光隐形晶圆切割机进行技术查新,认为该设备研究了基于光相位调制器实现多焦点的全自动硅晶圆印象切割技术,采用了基于同轴寻焦装置和高频位移传感器的激光焦点自适应动态补偿算法以及基于光路设计实现的激光线性控制和像差校正,国内外未见与半导体激光隐形晶圆切割机综合技术特征相同的公开文献报道。 河南省电子信息产品质量监督检验院出具的设备检验检测报告显示,半导体晶圆隐形切割机符合晶圆切割生产工艺技术要求,符合行业设备安全规格要求。 来自西安交通大学、中国兵器工业第214研究所的行业专家综合测试鉴定半导体晶圆隐形切割机后,认为该设备切割效率高、切割稳定性强、应用范围广,性能指标和总体水平达到国内领先、国际先进,属于半导体晶圆隐形切割领域的关键设备,行业应用前景广阔。 郑州轨交院院长刘振宇介绍,“将核心技术掌握在自己手里”是轨交院的初心使命。半导体激光隐形晶圆切割机批量生产是落实国家制造强国战略、推进新一代信息技术与制造业深度融合的具体体现,有利于推动我国半导体智能装备独创研发的进程,加速形成我国半导体智能设备产业化生态。 半导体激光隐形晶圆切割机在郑州市高新区的产业化,将为河南省半导体产业发展注入新生力量,丰富河南省半导体产业布局、带动半导体装备上下游产业链的发展。
纳米芯片在我们的生活中非常常见,并被广泛的应用在手机、电脑、电视等各种数码家电中。而美国对华为制裁开始后,我国芯片研发能力的不足就开始显现了,而大多数人并不知道经常提起的芯片到底是如何制作的,到底有何难度?下面带大家了解一下芯片的制作过程。 一、什么是电路 电路,在我们初中物理课的时候就知道了,电路是由一条条导线构成的,在我们生活中从电力局传输出来的电,我们称此为强电,电力局通过电缆输送到各家各户组成的网络,而我们在电视或者手机、空调等里面经常会看到控制板,在控制板中会有各种不同的微电脑芯片,这些能编程的芯片我们称之为数字电路,而与这些芯片连接在一起的电容和电阻,我们则把它称之为模拟电路,在很多的控制板上面,都是通过数模结合的方式来实现产品的很多功能。 二、什么是纳米芯片 纳米是一个长度单位,1纳米=0.000000001 米,也就是五万分之一头发丝的大小,而芯片,就是我们常说的集成电路,集成电路的意思就是相当于把以前需要成千上万个电容、电阻、场效应管等才能搭建的电路,通过集成的方式把它们装在一个小芯片里面,当然这里的集成不是将所有的电子器件塞进去,而是通过用纳米技术制作而成的晶体管来实现同样的功能,这就是纳米芯片了。 在一颗高端芯片中,里面集成了有上百亿个晶体管,就拿华为海思麒麟990来说,在1厘米平方不到的大小里面,拥有103亿个晶体管,相比苹果A13处理器的85亿个还要多,那么这些晶体管是怎么塞进去的。 三、晶体管的工作方式 我们都知道芯片中的晶体管其实就是纳米级的半导体场效应管,执行着0和1的二进制操作,正常的场效应管有三个极性,分别为源极、栅极和漏极,并且分为P沟道和N沟道两种类型,我们以常用的N沟道为例讲解一下其工作原理:当G极(栅极)和S极(源极)有一定的电流电压经过时,该场效应管就会工作,从而达到导通的状态,而其中只要有一个机型没有电压之后,这个场效应管又会截止。 四、芯片的制作工艺 虽然芯片里面的晶体管和我们常用的场效应管形状和参数不一样,但是基本的工作原理是差不多的,知道了晶体管的工作原理,下面我们将这些晶体管制作出来了,要知道一个高端芯片里面高达上百亿个晶体管,按照我们普通的理解,就算是一秒钟做一个,也要100亿秒,这个时间花费可是巨大的,这就是难度所在了。 为了解决这个问题,伟大的科学家们通过印刷的方式找到了一个新的方法,那就是“影印技术”。 一、硅片的制作 在芯片开始制作前,我们会先将提炼好的沙子制作抛光打磨成硅锭,并且通过切割,制作成我们所需要的的硅片,并且在硅片中会划分出很多细小的分区,这些分区就是我们CPU的内核(Die),并且根据CPU的大小,单块镜片切割出(Die)的数量也各不相同。 二、影印 完成硅片的切割之后,就到了我们关键的技术了-“影印技术”,我们会在将完整的电路通过激光刻印在模板上面,再将经过热处理后的硅氧化物上面涂上一种光阻材料,最后用紫外线透过模板照射,经过紫外线照射后的区域光阻物质被溶解了,这样就能将复杂的电路图案印刷在硅片上面。整个过程中,为了避免被别的光线干扰,必须制作遮罩来屏蔽外面的光线。 三、蚀刻 蚀刻就是使用波段很短的紫外光透过石英遮盖的孔照射在光敏抗蚀膜上,使其足够的曝光,在曝光完成之后通过特殊的化学药剂清洗掉暴露在外面的感光物质,这样二氧化硅会在镂空的位置下方生成,将感光层的物质完全去除之后,剩下的就是充满各种沟壑的二氧化硅层了,然后加入带有感光层的多晶硅层。通过多次的蚀刻之后,就可以建立出基本电路的模型。 最后再通过对暴露在外面的硅层进行离子轰击,形成了N沟道或者P沟道的晶体管,再通过掺杂的方式将这些晶体管的电路连接起来,使每个晶体管有自己的输入和输出端口。重复上面的动作,可以获得一个多层的立体式架构的芯片。 四、封装测试 完成以上动作之后,就可以将晶片上的核心(Die)切割下来了进行测试了,高端芯片的测试可能长达几个星期,在测试的过程中会对其逻辑性、电学特性等过个方面进行检验和分类并且封装,对于部分电路印刷不良的芯片,可以像Intel一样屏蔽掉核心,制作成低端的芯片出售。毕竟每块晶圆的价格都是非常昂贵的。 在测试完成对产品进行分类后,就可以走向市场了,成了我们常见的CPU等各种芯片了,芯片中的上百亿晶体管并不是一个个制作的,而是通过影印光刻的方式批量完成的。
6月15日,目前华为海思已与比亚迪签订合作协议,首款产品是应用在汽车数字座舱领域的麒麟710A。以这款麒麟芯片为起点,海思自研芯片正式开始独立探索在汽车数字座舱领域的应用落地。 “所有我们曾经打造的‘备胎’,一夜之间全部转‘正’。”面对贸易制裁,华为海思总裁何庭波的这句话振奋人心。而在一年之后的当下,曾经的“备胎”不仅转正,甚至已开始主动开疆拓土,成为华为进军汽车领域的主力军之一。 “比亚迪已经拿到了麒麟的芯片技术文档,开始着手开发,”消息人士透露称,“麒麟芯片拓展汽车市场已经有数月时间,目前主要锁定比亚迪,希望借助新车型落地打开市场。” 这并不是华为与比亚迪的首次合作。此前,华为就与比亚迪合作了手机NFC车钥匙、HiCar手机投屏方案等产品。6月初,华为的MH5000更是以业界首款5G模组的身份,在比亚迪全新旗舰车型“汉”上亮相。 今年5月,华为还与上汽、广汽、一汽、东风、长安等18家车企共同打造“5G生态圈”,试图加速5G技术在汽车产业的商业进程。 华为在汽车领域的野心可见一斑——虽然不造车,但在面向汽车的增量ICT部件方面进展迅速,大幅深入汽车供应链。 此前,华为通常以“智能汽车BU做业务出口”,但本次麒麟芯片与比亚迪的合作直接由海思出面。 虽然华为海思自研的4G、5G基带芯片和通用芯片已向外部供应,但麒麟芯片并不在此列。有媒体分析称,此次海思与比亚迪的合作意味着“麒麟”向开放供应迈出了第一步。 更重要的意义在于,这次合作意味着具有中国自主知识产权的芯片也已具备“上车”实力。但这并不代表车载芯片被海外巨头“卡脖子”的问题已经得到解决。 01手机芯片“上车” “华为的目标很明显,就是对标高通骁龙820A芯片。”金语科技智能驾驶项目组高级经理刘振宇对亿欧汽车表示。 目前,高通骁龙820A芯片凭借较强的基带性能,已成为众多车企的“标配车载芯片”。目前,这款产品已经搭载在领克05、中期改款的奥迪A4L、小鹏P7、小鹏G3新版本、奇瑞路虎发现运动版等诸多车型上。 对于这些国内造车新势力和自主车企的合资品牌而言,较弱的品牌影响力与知名度成为其发展之路上的极大阻碍。而在汽车新四化浪潮下,智能化往往被其视为“弯道超车”老牌王者的有效途径。因此,性能更优秀的芯片成为他们的首选。 近两年,智能座舱芯片市场一直被高通占去大半。但从现在开始,情况似乎要发生改变。 “麒麟芯片与比亚迪合作”的消息对外释放出一个信号——华为欲通过“麒麟芯片+鸿蒙系统”的搭配,将几乎被“高通骁龙芯片+安卓系统”垄断的市场撕开一个口子。 与高通骁龙820A芯片一样,麒麟710A原本也是一款手机芯片。2018年7月,麒麟710A首次搭载在华为Nova 3i手机上,由台积电代工,制程工艺12nm。今年5月,麒麟710A开始由中芯国际代工实现量产,主频由2.2GHz降至2.0GHz,制程工艺则变为14nm,成为纯正的国产芯片,并搭载荣耀play4T上市。当时,有业内人士评价其为“从0到1的突破”。 此次海思与比亚迪的合作是麒麟芯片首次在智能座舱应用方面进行探索,为其未来带来新的想象空间。“芯片上车”符合华为在汽车领域大的战略方向——聚焦ICT技术,致力于成为面向汽车的增量ICT部件供应商。虽然不造车,但野心并不比造车小。 虽然该消息是近期流出,但有业内人士向亿欧汽车表示,华为至少在一年前就开始与比亚迪在芯片领域进行合作探索了——从芯片出厂到上车测试,起码要花费一年的时间,期间要通过ISO 26262、IEC 61508、AEC-Q100等多种认证工作。 国产手机芯片上车,这对华为和比亚迪而言都是一次巨大的突破。虽然手机芯片的绝大部分技术都可以复制到车载智能座舱领域,但车规级芯片的设计难度较手机芯片不知高出多少个维度。 “只要上车,就必须满足车规标准。”地平线市场拓展与战略规划副总裁李星宇对亿欧汽车表示。 手机芯片依照消费级标准设计而来,其工作温度范围在0℃~60℃之间,而车载芯片则需要满足-40℃~120℃的严苛环境温度要求。此外,手机与汽车不同的生命周期,导致芯片的供货周期也大不相同。 “目前手机的芯片供货周期一般是两年,而汽车芯片起码要保证10年不断供。”刘振宇称。对于很多芯片、尤其是消费级芯片厂商而言,保持十年持续供货是一项巨大挑战。此外,长期供货也对芯片下游的配件厂提出了更高要求,因为其保修周期要与芯片厂商同步。 过去几年间,联发科曾将旗下汽车电子事业部独立为杰发科技公司运营,试图将其手机芯片应用在车载领域,但一直未能推出特别成功的产品。这次,华为率先获得成功。 02芯片战争刚刚开启“前哨战” “麒麟主要用于智能座舱,上车会相对简单些。”有接近华为的人士向亿欧汽车透露。 与自动驾驶芯片相比,智能座舱芯片相对容易打造。即便芯片完全失灵,也不会威胁司乘生命安全。“自动驾驶芯片需要满足车规级认证与功能安全要求,前者确保芯片能够经受住车载环境的考验,后者则要保证即便芯片失效也能进行最低限度的工作。”李星宇表示。而智能座舱芯片只需要满足车规级认证。 业内人士透露称,目前车企有“系统过车规”、“芯片过车规”两种衡量标准。智能座舱芯片的设计比较灵活,大多是根据车企要求而打造。即便芯片本身未符合车规要求,也可以通过整体设计(比如加装散热装置)使整个系统符合车规要求。这对企业的上下游整合能力提出了较高要求。 但若涉及数字仪表方面,智能座舱芯片则要达到更高的安全等级。对于基于CAN总线打造的数字仪表而言,获取车辆关键参数的任务对其响应速度提出了更高要求。 目前,华为与比亚迪均未对该消息给予任何置评,尚且不知麒麟芯片能够支持智能座舱的何种功能。 凭借国产芯片打入智能座舱领域只是第一步,想要真正解决车载芯片被“卡脖子”的问题,必须拥有自动驾驶芯片技术。 两年前的年度开发者大会上,华为曾发布能够支持L4级别自动驾驶能力的计算平台MDC600,并宣布与奥迪达成战略合作。 彼时,华为的策略是不直接出售自动驾驶芯片,而是提供包括AI芯片、操作系统、算法信息安全、功能安全等在内的MDC智能驾驶计算平台。与智能座舱芯片相比,自动驾驶芯片的难度呈指数级提升。 单从算力角度来看,达到自动驾驶需求的超强算力水平本就极其不易。强大的算力还会导致芯片功耗增大,功耗控制难度急剧升高。 GTC 2019大会上,英伟达创始人兼CEO黄仁勋发布英伟达新一代自动驾驶芯片Orin——算力为2018年版芯片Xavier的7倍。这种算力迭代速度,让绝大多数对手难以望其项背。 算力仅仅是一方面,复杂的算法、极高的安全性要求等门槛也将大批芯片制造商挡在了自动驾驶“门外”。智能座舱芯片只是“前哨战”,自动驾驶芯片才是这场汽车芯片战争的“高地”。
6月12日消息,恩智浦半导体和台积电今日宣布合作协议,恩智浦新一代高效能汽车平台将采用台积电5nm制程。因而恩智浦将成为首家在下一代“高效能安全计算”汽车平台采用台积电5nm制程芯片的汽车芯片厂商,预计在2021年秋季向主要客户交付首批样品设备。 市场研究公司Tirias Research首席分析师Kevin Krewell认为,恩智浦或能凭借5nm架构,超越其采用7nm制程的竞争对手,成为汽车芯片领域的优胜者。 一、新架构以安全性为核心,成本和复杂性有所降低 相比于现有的汽车SoC,恩智浦5nm制程汽车SoC具有复杂性低、成本低的优势。 恩智浦汽车加工业务副总裁及总经理Henri Ardevol称:“(现有的汽车SoC)是一个十分难以缩小的系统,而且它非常昂贵。” 这是因为现有的汽车SoC采用“高性能计算”和“安全计算”并行的设计。对于高级辅助驾驶系统(ADAS)和自动驾驶系统(AV),汽车代工厂通常打造需要两个系统来保证性能和安全性:一个系统遵循低完整性功能的主要路径,另一个系统是为了安全处理而添加的。 另外,系统设计人员还会在汽车中添加一个安全检查器,与其他处理器搭配使用来计算紧急情况下的逃生路径。 注意到软件层面的巨大复杂性正在增长,恩智浦计划将上述并行系统设计到一个新的SoC架构中,并把安全性作为架构的核心。同时,恩智浦还在设计一个新的核心体系架构,该体系可以在系统层面上跨域工作。 按照这种设想,在配置相同的情况下,恩智浦的汽车SoC架构比宝马最近发布的自动驾驶架构成本更低。 5月初,宝马发布了其自动驾驶平台架构。对于L3车型,宝马在平台中增加了两颗Mobileye EyeQ56芯片、两个英特尔Denverton CPU和一个额外的Aurix微控器。对于L4、L5车型,宝马将配置扩展为三颗EyeQ5芯片、一个英特尔至强24C和一个Aurix微控器。 二、计划2021年交付首款样品,“分阶段”简化开发设计流程 据了解,在还未从飞利浦公司独立出来时,恩智浦就曾与台积电有过合作。Ardevol称,与台积电合作迈进5nm制程“是一个简单的决定”,“在迈进7nm制程和迈进5nm制程上的投资是相似的”。 据Ardevol透露,由于先进制程节点需要更多的协同设计,在过去几个月,台积电、恩智浦等IP供应商、工具供应商及其他提供设计支持的参与者作为一个团队工作。 恩智浦计划在2021年向客户交付样品,首个采用5nm制程的产品将是一颗eCockpit(电子驾驶舱)SoC。接下来,恩智浦计划推出基于其S32自动驾驶平台的其他产品。例如,5nm架构的S32G汽车网络处理器将能提升高级辅助驾驶系统的性能。S32G为网关处理器而设计,结合了一个汽车微处理器和一个企业网络处理器。 Ardevol补充,恩智浦的最终目的是设计一个一致的架构核心,该架构核心能够在分布式领域以模块化方式使用。分布式领域的范围涵盖网关处理器、驾驶舱、传感器融合、路径规划和决策制定处理器等。根据不同用途,处理器可以添加不同的AI加速器。 另外,恩智浦将采用“分阶段”的方法,使汽车代工厂能在安全的情况下简化软件开发和设计。Ardevol解释道,恩智浦并不会简单地追求更大、更快地DMIPS、TOPS和TFLOPS,“我们的目标是建立一个高性能的安全计算平台,该平台可以集成功能安全和锁步操作”。 三、生产5nm汽车SoC需要至少2年 市场研究机构Linley Group高级分析师Mike Demler称,恩智浦是目前唯一一家采用5nm制程的汽车芯片厂商。“我不知道还有其他汽车处理器瞄准了5nm。”他说。 他评论称:“这项声明对恩智浦来说十分重要,因为它想成为技术领导者之一。”同时,Demler也指出,要开始生产5nm汽车SoC,还需要至少两年的时间,因此“不要指望马上能看到这种基于全新架构的芯片”。他认为恩智浦的网络芯片和其他汽车处理器更有可能在2021年推出样品。 据Demler预计,NVIDIA自动驾驶芯片Orin将采用7nm制程;英特尔Mobileye EyeQ5采用7nm制程,EyeQ6可能采用5nm制程。 “有趣的是,Mobileye和意法半导体合作进行芯片设计。早期的EyeQ处理器使用意法半导体的制程,但较新的处理器采用台积电的制程。意法半导体与台积电合作开发了EyeQ使用的汽车芯片制程。因此,看到恩智浦采用5nm制程是很有趣的。”Demler评论称。 Kevin Krewell也指出,要使5nm制程工艺达到汽车的级别和功能安全性要求并不那么简单。恩智浦需要“完成大量的书面工作和官方文档”。另外,新架构还需要达到高于消费设备的可靠性水平。 恩智浦成为首个采用5nm制程的汽车芯片制造商。根据设想,恩智浦5nm架构产品具有成本低、复杂性低的优势。分析人士认为,5nm制程汽车SoC或将推动恩智浦成为汽车芯片领域的佼佼者。同时,分析人士也指出,恩智浦开发5nm汽车SoC不会一蹴而就,还需要更多时间。 近年来英伟达、英特尔、高通等消费电子芯片巨头均将自己的芯片业务拓展到汽车芯片赛道上。为传统汽车芯片厂商带来了挑战,提升芯片实力是才是未来汽车芯片之路。
新基建将为FPGA带来哪些市场增量?又将提出怎样的技术挑战?我国FPGA企业该如何抓住新基建带来的发展机遇? 新基建是数字技术的基础设施,具有发展速度快、技术含量高等特点,随着新技术新应用层出不穷,其对计算、架构、协议、接口的动态更新提出了新的需求,因而对基础芯片更是新的考验。FPGA具有软硬件可编程、接口灵活、高性能等优势,能够满足高新技术对于计算和连接的需求。 一、新基建将大幅拉动FPGA新需求 新基建是以技术创新和信息网络为基础,来推动基础设施体系的数字转型、智能升级以及融合创新等。在原型设计、协议升级、数据处理、降低功耗等方面,FPGA都将发挥不可替代的优势。 “在新基建巨大的投资拉动效应下,FPGA用量势必会迎来大幅度提升。在技术创新方面,灵活可编程的FPGA被公认为原型设计和新产品开发的关键器件,非常契合5G、人工智能、数据中心、工业互联网等新兴应用场景。而特高压、城际高速铁路和城市轨道交通、新能源汽车等场景,普遍面临着连接和数字化转型挑战,对于运算效率、数据安全性、时延等性能要求更高。FPGA凭借强大的并行计算能力,能够满足多样化及边缘化数据处理的需求。”紫光同创市场总监吕喆向《中国电子报》记者指出。 工信部最新统计显示,我国5G基站以每周新增1万多个的速度在增长,预计今年年底,我国5G基站的建设将超过60万个。而通信行业正是国产FPGA最主要的应用场景,占比高达35%。5G基站的激增,将带动FPGA用量的快速提升。 吕喆表示,5G基站主要从三个方面为FPGA带来市场增量。一是5G商用初期,各设备厂家为了抢占产品和技术的制高点,在标准还未冻结之前就推出原型样机或小批量生产,这只有通过可灵活编程的FPGA才能实现。二是在5G网络的很多应用场景中,FPGA是不可替代的。比如,5G通信的MIMO天线阵列和波束成形技术的出现,需要大量信号并行处理,FPGA是解决这类需求的最理想的解决方案。三是5G时代在宏基站的基础上,也可能会出现更多形态的微基站,推动形成了FPGA的增量市场。 工业互联网相关场景对FPGA的需求也在日益提升。据赛迪顾问预测,2022年我国工业互联网市场规模将达到9146.5亿美元。FPGA的高吞吐和灵活性,将在工业通信协议、传感器融合、工业云计算加速等领域发挥作用。 “未来的工业互联网将把当前工业网络中存在的数百种不同协议统一起来,实现互联互通,在工业互联网的灵活性和硬实时性要求的逐渐演进过程中,非常适合用FPGA来做核心控制器件,以实现控制通信协议转换、接口控制、传感器数据融合。”安路科技副总裁陈利光向《中国电子报》表示。 数据中心、人工智能等高性能计算领域,也是FPGA的重要市场。目前,全球数据中心对加速器的市场需求超过百亿美元。市场调研公司Semico Research预测,人工智能应用中FPGA的市场规模将在2019—2023年增长3倍,达到52亿美元。 “人工智能、云计算、区块链、数据中心、智能计算中心等主要解决的是计算问题,FPGA在数据中心加速、人工智能加速、区块链处理等领域应用越来越多,FPGA集成多核处理器、AI计算单元、NOC(片上网络)等计算加速部件,未来会形成非常有竞争力的异构计算平台,成为通用计算领域的重要组成。”陈利光说。 在新能源汽车、自动驾驶等车用领域,采用FPGA的异构计算平台将提升自动驾驶平台的灵活性和扩展性,实现从边缘传感器到域控制器的可扩展性,并提供动态重编程能力,降低系统成本与损耗。目前FPGA龙头赛灵思大约有7000万颗汽车芯片用于ADAS中。 “汽车行业正在面临着一些革命性的演进,最受关注的演进就是智能驾驶从ADAS在逐渐向全面自动驾驶持续演进。传感器数量的增多势必会带来爆炸式的数据增长,这就需要汽车具备强大的异构计算平台,能够处理不同来源的数据,将多传感器同步和融合所带来的系统整体响应时间大大缩短。” 赛灵思大中华区核心市场业务发展总监酆毅向《中国电子报》记者指出。 二、新基建对FPGA性能提出新挑战 在新基建的背景下,信息化升级将会催生越来越多的应用场景,这对于FPGA的性能指标和架构创新都提出了挑战。对更大规模、更高性能纯FPGA以及多核异构智能化平台提出要求。 “5G通信和数据中心加速等应用,对高端FPGA的性能指标提出了更高的要求,而人工智能、工业互联网等应用,则为多核异构FPGA系统在边缘计算场景下提供了大量的应用机会。”吕喆说。 陈利光表示,当前FPGA技术主要向7nm以下最先进工艺、更大的处理能力、更高的接口带宽方向发展。面向新基建连接方面的需求,针对工业互联网的SoC FPGA,以及协同逻辑阵列、处理器、DSP、专用加速器等多种计算资源的异构计算软件编译平台,是未来的发展方向。 京微齐力创始人兼CEO王海力向《中国电子报》记者表示,要快速满足新应用环境下提出的各类需求,FPGA需要采用异构架构,同时兼顾到能耗、性能和成本的要求。 “FPGA已经由单一可编程芯片技术方案向多核异构处理平台型技术方案过渡,实现‘软件定义硬件,硬件适配生态’的新局面。”王海力说。 目前FPGA两大龙头企业赛灵思和英特尔都推出了基于FPGA的多核异构智能产品。赛灵思推出的ACAP, 在传统FPGA片上互联技术的基础上,采用了NoC实现CPU、FPGA和AI引擎之间的互联,速度较传统FPGA有着20倍的提升。英特尔的Agilex SoC FPGA,基于10nm工艺,集成了四核Arm Cortex-A53处理器,可将数据中心、网络和边缘计算应用的功耗降低40%。 酆毅表示,单独的计算体系结构,无法满足越来越多样的开发需求,伴随工艺的进步,FPGA也打破了传统的应用边界,除以往的航天、通信、消费电子、工控等应用领域,还进入到AI、数据中心、视频处理、自动驾驶、5G等新兴领域,而FPGA也通过集成标量处理引擎、自适应硬件引擎和智能引擎,从器件向异构平台转变。 “FPGA相关企业的研发方向需要向异构计算转型。在人才储备中,FPGA企业将吸收来自AI、自动驾驶、智慧城市等来自新基建行业的人才。产品策略方面,企业应该更偏向于应用层面的开发,更贴近客户需求,更多采用行业通用的开发模式,通过更友好的开发环境,满足更多的产品开发需求。” 酆毅说。 三、我国FPGA产业进入快速发展通道 目前,我国FPGA产业链在设计、制造、封测环节均有所布局,在中低端市场形成了一定的生产和供应能力。但是,我国FPGA产品主要集中在中小规模器件,在“新基建”多个领域所需的高端产品供应方面,仍与国际龙头存在差距,需要在性能指标和量产能力上取得进一步的突破。 王海力向《中国电子报》记者表示,我国FPGA产业基础相对薄弱,特别在高端FPGA核心架构层面,芯片设计与量产能力、软件EDA工具、应用开发等,与国外厂商有较大的差距。但从近几年产业发展的态势来看,我国FPGA已经进入到一个快速发展的轨道。即使在同规格的FPGA产品指标对比上,国内FPGA公司的一些产品还做到了领先。 “我国FPGA在工业互联网、物联网等领域的研发、生产与供应有一定的基础和保障,其产品也比较容易进行适配。但是5G、人工智能、数据中心及汽车电子对FPGA的技术要求更为高端严苛,国产FPGA在供应能力上仍有差距。随着国内FPGA厂商近几年对中高端FPGA产品的持续研发,这种局面在未来两三年会得到一定改善。应该利用好新基建给不同应用领域带来的发展契机,以及在技术上提出的新需求,夯实FPGA在新基建不同行业的植入基础。”王海力说。 面对新基建的市场增量和技术要求,我国企业该如何抓住机遇,实现能力提升与市场拓展? 吕喆表示,对于国内FPGA产业链而言,首要的问题仍是高端器件的突破,以此为基础才能进一步拓展应用领域,服务于新基建带来的数字化、智能化升级。要进一步提升国内FPGA产业链水平,一方面要推动产业链上下游更紧密的合作,加强上游供应链中流片厂、测试和封装企业对FPGA设计公司的重点支持,与FPGA企业共同完成系统验证、量产催熟和产品方案迭代,实现产业化;另一方面,要打通和搭建学术界和产业界的交流通道和平台,建立创新中心,加速产学研良性循环,为FPGA未来技术体系创新提供理论和学术支撑;同时,要出台相应政策吸引并留住高层次FPGA人才,建立产业联盟,营造和培养FPGA的硬件、软件和IP生态。 赛迪顾问高级分析师李秧向记者指出,FPGA技术门槛很高,国内FPGA厂商要加大研发、人才投入,完善产品线,满足中低端 FPGA的市场需要,又要致力于高性能、高品质的FPGA的研发,补齐从EDA到高端制造、高端封测的产业链条,形成品牌效应及稳定的客户关系,真正提升品牌竞争力。国内 FPGA厂商要形成产业集聚和产业生态,从而降低成本,为下游客户提供更好的产品服务。 国内FPGA企业应该继续脚踏实地做好基础研发,包括核心架构设计、EDA软件工具的开发,完善面向应用实现的知识产权库IP,逐步从低端FPGA产品向高端FPGA产品过渡。
6月15号,华米正式成科技人工智能研究院。对于华米这个品牌可能大家并不熟悉,但是应该知道小米的生态链,而华米的产品就是在小米的生态链产品之一。华米主要市场为可穿戴设备,包括手环和手表,有相关数据表明目前小米手环5与华米科技有合作,而其手表名称为Amazfit+名称。 华米科技(NYSE:HMI)在安徽合肥举办首届主题“AI to Decode Future”的AI创新大会。华米科技正式发布了新一代智能可穿戴芯片“黄山2号”、第二代PPG生物追踪光学传感器BioTracker 2及一系列全新的健康大数据AI算法。通过一整套AI健康管理技术架构,华米科技将致力于搭建新型健康基础设施平台,并且重构全球健康医疗产业。 公司创始人、董事长兼CEO黄汪在会上宣布,同时成立华米人工智能研究院(下称“研究院”)。研究院院长由华米科技副总裁汪孔桥担任,著名人工智能研究专家、加州大学欧文分校教授、未来健康研究所创办人Ramesh Jain(拉米什.杰恩),受邀担任研究院首席顾问;中国科学技术大学校长助理、类脑智能技术及应用国家工程实验室主任吴枫,出任研究院专家委员会主席。 目前,研究院已经建立了三个联合实验室,分别为和钟南山院士团队的腕部智能可穿戴联合实验室、和中国田径协会的田径运动联合实验室,以及和中科大先进技术研究院的脑机智能联合实验室。此外,研究院还宣布和云知声达成了战略合作,基于“云端芯”进行优势资源共享和整合。 “黄山2号”四季度量产 房颤识别更快功耗减半 2018年9月,华米科技正式发布了“黄山1号”,这也是全球可穿戴领域的第一颗AI芯片。如今,历时450多天的攻坚之后,全新一代的“黄山2号”终于出炉。 据介绍,和“黄山1号”一样,“黄山2号”仍基于先进的RISC-V架构。和在PC时代的英特尔X86架构、移动互联网时代的ARM架构一样,RISC-V也被公认为是IoT(物联网)时代最具潜力的芯片架构。它具有高运算效率和低使用功耗两大优势,相比于在可穿戴设备中常见的ARM Cortex-M4架构处理器,整体运算效率提升了38%。 黄汪透露,华米科技为“黄山2号”重新设计了AI本地生物数据计算NPU,采用卷积神经网络加速技术,大大提升了本地AI数据计算的性能,加快了识别速度。基于心率数据,“黄山2号”的房颤识别速度是“黄山1号”的7倍,是市面上其它软件算法的 26 倍。 同时,“黄山2号”还加入了超低功耗传感器AON模式,和苹果一样搭载了协处理器-C2协处理器。该处理器可单独用于数据收集,能在主芯片处于休眠甚至关闭状态时,仍持续保持健康数据的记录工作;理论上可使黄山2号整体功耗下降50%,从而让用户彻底告别可穿戴设备的续航焦虑。 目前,“黄山2号”已经流片成功,预计将于今年四季度量产。明年(2021年)上半年,搭载“黄山2号”的可穿戴新品也将面世。 心率、血氧、睡眠 生物数据引擎集体亮相 因为心脏是人体最重要的器官之一,心脏健康也一直是华米科技关注的重点以及初心。2019年,华米科技推出了自研的RealBeats 生物数据引擎,通过分析PPG光学心率数据和ECG心电图数据,可实现对心律不齐的自动甄别。 之前,华米科技已同北京大学第一医院共同完成了智能手环监测房颤的临床医学研究,搭载RealBeats 的智能手环PPG和ECG功能判断房颤的准确度分别达到了93.27%和94.76%,这一结果与专业医师的人工判读结果基本一致。得益于这套引擎,到目前为止华米科技共监测到了 91100 次疑似房颤病例。 此次新推出的第二代心脏数据AI生物引擎RealBeats 2,可能是全球最先进的心率AI引擎。它能有效地消除运动时对心率信号的噪声干扰,夜晚和白天有效房颤监测时间分别达到了上一代的1.87倍和6.64倍。此外,通过建立心脏健康大数据模型,也成功实现了折返性心动过速和室上性频发早搏的AI自动甄别。 血氧饱和度也是反映健康状态的重要指标,通过历时2年的不断摸索,华米科技推出了自主研发的血氧数据AI生物引擎——OxygenBeats。该算法基于健康大数据模型对血氧信号进行预处理,消除信号噪声,使测量精度提升达50%;而且通过使用多组血氧检测值进行校准的方法,解决了因用户佩戴错误带来的误差,进一步提升了准确度。 黄汪介绍,华米还采用了氧降实验来验证算法的准确度,结果显示成功率可达100%,市场上的同类产品不到90%;与专业血氧仪的检测结果平均误差仅为1.67%,精度超过大多数腕部可穿戴设备的血氧检测算法。 他透露,基于此前的合作,华米科技还会和钟南山院士团队一起,借助OxygenBeats 高精度血氧检测的能力,对新冠肺炎患者进行康复随访。预计搭载OxygenBeats 血氧数据AI生物引擎的智能手表,最近将在今年(2020年)三季度面世。 华米科技还发布了全新的睡眠数据AI生物引擎SomnusCare,该算法基于华米海量的健康大数据,实现了对睡眠状态的准确识别,并通过多维数据帮助用户了解睡眠状态和质量。其睡眠数据检测精度超过了80%,而且能以将近100%的精度检测出时长超过 25 分钟的午睡数据。 同时,针对严重危害健康的“隐形杀手”睡眠呼吸暂停综合征,华米科技结合OxygenBeats血氧引擎,可以分别从睡眠状态判定和血氧饱和度检测两个维度深度分析,实现对睡眠呼吸暂停综合症的智能识别,并及时提醒用户采取必要的医疗措施。 之前,在此次新冠疫情期间,利用生物数据引擎,并结合天气、季节、历史周期等外部因素,华米科技已经建立了一套流行病发病趋势的预测模型。随着生物数据引擎全面升级,未来的流行病预测甚至预警能力,也会成为新型健康基础设施平台的一部分。 ExerSense + huami-PAI 开启运动智能新模式 AI带来的改变,也体现在运动上。 现在几乎市面上所有的智能手表,都需要用户在开始锻炼之前,手动设置一个运动模式,才能开始记录。而华米科技通过对不同运动模式下的运动数据和心率数据进行分析,推出了基于运动大数据的人体活动模式AI识别引擎 ExerSense。 该引擎可通过华米可穿戴设备上运动传感器和心率传感器的数据检测,实时匹配运动模型,最终能够智能判断用户当前的运动模式。目前,ExerSense 已经可以自动识别 19 项运动模式,包括健走、跑步、骑行、游泳等,覆盖了用户95%的日常运动场景;用户无需进行繁琐的人工操作,就可以实现真正无感的智能运动模式选择。 基于同样智能理念的还有人体健康评估系统huami-PAI。该系统基于用户心率数据,结合每日活动时间以及人体多维度生理数据,通过算法转换成更为直观的PAI值,帮助用户智能掌握每日运动量。而且,PAI可以针对不同用户,结合年龄、性别、静息心率等个性化生理数据,为每个用户打造一套绝对个性化的健康评估系统。 该系统还加入了时间维度来分析运动量。用户可根据自己的工作和作息习惯,自由制定运动目标。要达到100的PAI值,你可以选择多天低强度运动,也可以集中几天做高强度运动。 根据 HUNT Fitness Study的研究结果,将PAI值保持到 100 以上,有利于降低心血管疾病死亡风险,提高预期寿命。该研究由挪威科技大学医学院 Ulrik Wisloff(乌尔里克.韦斯洛夫) 教授主导,历时超过35年,涉及到超过 230,000 名参与者。 据黄汪透露,目前华米已经有很多款可穿戴设备支持huami-PAI,包括最新发布的小米手环5。未来还将会有更多设备搭载,让每一位用户可以科学的设定并完成运动目标,改善身体健康。 此外,在2019年年底的全员信中,黄汪曾经说过:对数据认真的人,一定要亲自做传感器。说到做到,在这次AI创新大会上,华米科技就推出了新一代BioTracker 2 PPG生物追踪光学传感器。 与上一代相比,BioTracker 2可以支持多达五种生物数据引擎(RealBeats、OxygenBeats、SomnusCare、ExerSense、huami-PAI),也是华米科技有史以来研发的功能最丰富、检测精度最高的人体生物传感器。在即将推出的“黄山2号”芯片强大的AI运算性能支持下,BioTracker 2也许会成为全球最强大的可穿戴人体光学传感器。 人工智能研究院成立,以AI为技术支点 此次AI创新大会的重头戏,是黄汪宣布,将华米科技人工智能实验室正式升级为人工智能研究院(Huami AI Research)。 人工智能研究院的院长,由华米科技副总裁汪孔桥担任。著名人工智能研究专家、“多媒体计算之父”(Father of Multimedia Computing)、加州大学欧文分校教授、未来健康研究所创办人Ramesh Jain,则受邀担任研究院首席顾问。 研究院成立了专家委员会,委员会主席由中国科学技术大学校长助理、先进技术研究院院长吴枫担任。除了吴枫之外,其余的7位成员也都是人工智能领域的专家,以便帮助共同提升AI生态和技术。 目前,研究院已经建立了三个联合实验室,分别是: 和钟南山院士团队的腕部智能可穿戴联合实验室,将在未来共同推动智能可穿戴产品在呼吸健康管理方面的应用研究和成果转化。 和中国田径协会的田径运动联合实验室,将会基于可穿戴设备,运用AI算法模型和大数据分析技术,研究专家运动员和普通运动爱好者的数据,助力专业训练和全民健身。 和中科大先进技术研究院的脑机智能联合实验室,将进一步开展非侵入式和侵入式脑机接口研究。 此外,研究院还宣布和智能语音独角兽云知声达成了战略合作,将共同研发可应用于手表的智能语音助手,未来还会在汽车、医疗、IoT等领域展开全方位的合作。 华米科技创始人、董事长兼CEO黄汪强调,人工智能研究院的成立,就是希望通过汇聚不同学科的顶级专家,致力于和健康大数据相关的人工智能核心技术创新,探索人工智能在可穿戴领域的垂直应用。同时,在健康大数据挖掘、智慧医疗、脑机接口等领域,开展前沿技术探索和创新。 领先世界水平,科技创造未来。通过自研智能可穿戴芯片、算法和传感器,华米科技已经搭建起了完整的AI健康管理架构。 今后华米科技将以AI为技术支点,持续布局大健康新基建,重构全球健康医疗产业;并与国内外顶尖机构携手,共同探索可穿戴的未来。
在外用4G,在家路由器。互联网时代,电子设备“横行”的时代,没有网络的生活简直无法想象,而在家中无论是电脑还是手机都需要使用无线或者是WiFi都需要路由器,那么路由器是不是有必要每天关闭呢? 1、路由器可以一直开着吗 无线路由器作为重要的上网设备,厂家在设计路由器时,也考虑到了其长时间及低功耗等工作特性,所以外壳材质也会采用散热性较好的材质,所以路由器在本质上是可以长时间进行工作的。 路由器长时间不关是会影响网速的,因为路由器作为信号发出和接收的节点,它本身也是有内存的,长时间不关,会让它缓存的信号点过多,从而让内存不足,这就会导致网速变慢哦,因此正确的做法是定期关闭路由器! 2、设备老化 设备老化是每种家电都会面临的问题,路由器自然也不例外,但是每天关路由器并不会延缓它的老化,反而会加速老化,因为亲们在开开关关的过程已经影响到了它的使用,会损害内部的细小零件,长时间不关的话,路由器处于持续工作的状态也是会影响网速的。所以小诺仍然建议定期关路由器! 3、路由器长时间开启费电 关于这一点小诺看过相关的测试报告,路由器所用电量是比较低的,如果非要评价一下的话,小诺认为路由器在长时间工作后,CPU的占用率会逐渐变高,这会导致路由器会比正常状态下更为耗电。当然一些硬件配置更高端的路由器设备会更耗电一些。 如何延长路由器的使用寿命? ①在部署无线路由器的时候,应该将无线路由器放置在阴凉、通风的位置,避免阳光直射,这样才能快速的将无线路由器主板上电子元器件的热量快速散发出去,因为如果电子元器件长期处于高温的环境下,会使老化加速,影响无线路由器的寿命。 ②有很多小伙伴将无线路由器放置在角落中,在平时网络正常的情况下一般都没有人去理会,当路由器出现问题的时候发现整个路由器布满了灰尘,甚至将散热孔都密封的情况也不少,这个时候需要定期清理灰尘。 ③还有就是无线路由器的电源适配器不都是通用的,亲们切记如果损坏需要购买原装,这样才能保护好路由器。
集微网消息,晶圆代工大厂台积电近期积极布局半导体新材料氮化镓(GaN)晶圆代工,并透露公司目前正在少量生产氮化镓,不过预计未来会广泛、大量生产。 据悉,台积电目前已小量提供 6英寸 GaN-on-Si(硅基氮化镓) 晶圆代工服务,650 伏特和 100 伏特氮化镓积体电路技术平台,预计今年开发完成。此外,于今年2月份宣布将与意法半导体合作加速市场采用氮化镓产品。 此前台积电指出,相较于硅技术,功率氮化镓及氮化镓集成电路产品,在相同制程上具备更优异的效益,能够协助意法半导体提供中功率与高功率应用所需的解决方案,包括应用于油电混合车的转换器与充电器。功率氮化镓及氮化镓集成电路技术将协助消费型与商用型汽车朝向电气化的大趋势加速前进。 除了台积电外,世界先进在氮化镓材料上已投资研发 4 年多,与设备材料厂 Kyma及转投资氮化镓硅基板厂 Qromis 携手合作,着眼开发可做到 8英寸的新基底高功率氮化镓技术 GaN-on-QST,今年底前将送样客户做产品验证,初期主要瞄准电源相关应用。 联电也同样积极投入氮化镓制程开发,携手 6 英寸砷化镓 (GaAs) 晶圆代工厂联颖,积极布局高效能电源功率元件市场。氮化镓制程开发是联电现有研发计划中重点项目之一,目前仍处于研发阶段,初期将以 6 英寸为目标,未来也会考虑迈向 8 英寸代工。 其实除了中国台湾地区的厂商瞄准氮化镓外,大陆厂商也早早进行了布局。耐威科技2018年在即墨投资设立了聚能晶源公司,专注GaN外延材料的研发生长;在崂山投资设立了聚能创芯公司,专注GaN器件的开发设计。 苏州能讯采用整合设计与制造(IDM)的模式,自主开发了氮化镓材料生长、芯片设计、晶圆工艺、封装测试、可靠性与应用电路技术,致力于宽禁带半导体氮化镓电子器件技术与产业化,为5G移动通讯、宽频带通信等射频微波领域和工业控制、电源、电动汽车等电力电子领域等两大领域提供高效率的半导体产品与服务,是中国氮化镓产业领军企业。
在智能驾驶时代,随着芯片算力和软件算法所引领的智能化成为不可逆的发展趋势,自动驾驶等级每进阶一步,算力便需大幅提升,传统芯片已无法满足当下的算力需求,可以说,得“智能驾驶芯片者”得天下。 一、新老芯片企业掘金智能驾驶芯片“蓝海” 市场研究机构Gartner公司的数据,到2021年,全球无人驾驶车辆所用芯片的年收入应增加一倍以上,市场规模可达到50亿美元。在中国,政府目标在10年内部署3000万辆自动驾驶汽车,有望成为全球最大的自动驾驶汽车市场。 这对智能驾驶芯片的初创公司来说,无疑是一块巨大的蛋糕。黑芝麻即是其中之一。 2019年8月黑芝麻智能科技成功推出中国首款车规级ADAS芯片,并与全球多家著名企业结成战略合作伙伴关系。该公司认为,进入2020年,智能驾驶将更注重安全性、可靠性、易用性、开放性、可升级、服务质量、延续性,成为车规级AI芯片的商业落地元年。 在人工智能AI芯片逐渐成为半导体产业中的“皇冠”领域时,黑芝麻将车规级AI芯片形容为“皇冠中的皇冠”,这是由于车规级AI芯片在市场前景广阔的同时,对技术的挑战更高。“车载AI芯片有着严苛的车规级标准,产品设计需满足整车量产对算法软件的适配性、芯片功耗体积、能效比和性价比,以及芯片平台系统的开发交付能力有很高的整体考量。”刘卫红表示,“同时,产品质量需达到车规级标准,保证功能安全和性能可靠,通过相关认证难度大、耗时长。” 因此,随着今年智能驾驶芯片逐步开始落地,行业对车规级AI芯片的市场预期将渐趋理性。 黑芝麻CEO单记章指出,今年以来智能驾驶产业界各种共识慢慢建立,L2/L2+正在规模化实施,同时研发L3/L4的量产解决方案。汽车控制器正往集中化发展,控制器平台对核心芯片提出了更高的功能和性能要求。 基于对智能驾驶产业的理解,黑芝麻制定了AI3战略,即看得懂(AI)、看得清(Imaging)、看得远(Interconnected)。“看得懂,需要有强大的大脑;看得清,强大的信号处理能力;看得远,不光是本车看到的,路上看到的,也包括其它车看到的。”单记章解释道,在清晰的战略定位和坚持不懈的研发积累下,黑芝麻迎来了“开花结果”的2020年。 “我们积聚人才,我们研究市场需求,我们制定产品战略,我们定位我们自己,我们希望在智能驾驶到来之际,成为推动辅助驾驶/自动驾驶的重要力量。”他强调,今年是黑芝麻智能产品的落地之年,继去年华山系列第一颗芯片——“华山一号”A500问世,今年再次取得突破,发布了性能更强大的“华山二号”A1000/A1000L”。 那么,这颗“国内首颗车规级智能驾驶芯片” 华山二号究竟强大在哪里? 二、国产智能驾驶芯片再攀高峰,揭秘“华山二号”核心技术 黑芝麻表示,此次发布的“华山二号”A1000是中国第一颗针对智能驾驶设计的高算力、可扩展车规感知芯片,具备高能效比的超大算力,把高质量、高精度、高性能、高准确度四项核心技术和高效的运算有机地结合在一起,单颗芯片可支持L3自动驾驶,其多芯片互联FAD芯片平台算力可达160T,可支持L4~L5自动驾驶。 黑芝麻智能科技CTO齐峥从芯片技术层面对“华山二号”的核心技术进行了更进一步的揭秘。 据齐峥介绍,“华山二号”具备高算力、高能效比DynamAI DL引擎架构,和多路相机、高质量、高处理率的NeuralIQ ISP流水线两大自研核心IP优势。而正是这两款高可扩展性核心IP的加持,黑芝麻能够在不到一年时间里连续发布两款芯片以及相应的参考设计ECU。 作为黑芝麻核心研发IP的DynamAI NN引擎,具备大算力的架构,支持多形态、多精度运算;通过可适配量化、结构化剪裁压缩、硬件可执行软件的子图规划实现软硬件同步优化;支持稀疏加速和配备自动化开发工具等优势,使“华山二号”在算力方面得以实现40~70 TOPS,能效比大于5 TOPS/W。 另一项核心IP技术NeuralIQ ISP 流水线,则支持多达12路高清相机接入。每秒处理36亿3曝光像素,12亿单曝光像素的高处理率管道,并且每个管道可并行在线处理两路视频,支持在线、离线和混合处理模式;支持高动态曝光、低光降噪、LED闪烁抑制等高质量车规图像处理要求;具有丰富的传感器格式以及精度支持,很好的适用于智能驾驶环视感知、前视感知、驾驶监控等应用场景。 一个直观的对比可以看出“华山二号”的强大:现阶段英伟达主流的Xavier芯片,单颗算力30TOPS,能效比1-2TOPS/W,而“华山二号” 单颗算力达到40TOPS,能效比可达6TOPS/W,能够达到全球第一的水平;对标Tesla的自动驾驶平台(FAD)平台,本项目所能够推出的FSD,在整体算力超过Tesla FSD平台144TOPS达到160TOPS的同时,功耗只有不足32W,远低于FSD动辄上百瓦的功耗。单颗芯片算力可支持L3,算力、能效比属于国内最强水平。 此外,齐峥表示“华山二号”下个月起将提供A1000硬件开发平台,核心板搭载了A1000芯片和DDR,具有USB、PCIE、Ethernet、SD等接口,以及相机解串子板和10个摄像头,平台载板可独立开发调试。9月起还将推出A1000 L3 DCU参考设计,使用了两颗A1000,配备10个摄像头,以及激光雷达、毫米波雷达等传感器,总算力13000 SPECINT(CPU),80~140 TOPS(AI加速)。 在最为重要的车规要求方面,从团队、架构、设计流程方面来保证“华山”系列健全的车规安全开发。在安全认证方面,“华山二号”通过了ASPICE汽车软件过程改进及能力评定、AEC-Q100车用可靠性测试标准、ISO26262道路车辆功能安全认证、ISO9001质量体系认证等一系列针对驾驶安全的架构、流程、设计、认证,并集成了独立的功能和信息安全岛。 三、智能汽车供应链安全迫在眉睫,车载AI芯片是核心 传统汽车芯片长期以来被国外厂商所垄断。汽车芯片的选型,除了性能、成本,更重要的是保证供应链的安全、稳定。比如,长期以来,跨国公司通常采取的都是优先供应外资品牌的策略,使得很多最新一代的芯片无法在国内汽车行业同步落地。 清华大学车辆与运载学院教授李克强指出,智能汽车是现代信息通信、电子控制与汽车相结合的高新技术产物,而新的智能计算平台是智能汽车的核心组成,其中车规级AI芯片是智能汽车计算平台的关键,也是中国发展智能汽车的“卡脖子”技术。 为此,一场围绕高级别自动驾驶的商业大战已经打响,保证智能汽车供应链安全,已然迫在眉睫。诸如黑芝麻等初创车载AI芯片厂商,正是发力的大好时机。不过他们在迎来机遇窗口的同时,也面临着一些壁垒需要打破。 从国内来看,尽管车载AI芯片创业公司与车规级芯片老玩家一起蓬勃发展,但是都各有不足之处。传统汽车半导体出身的团队在算法软件开发能力和资源上相对欠缺,电子消费芯片出身的团队则对汽车、车规了解不透彻,行业立足需要既懂芯片又懂车的融合背景。 刘卫红强调,多年以来,整车厂的大门几乎不对国产汽车芯片开放。整车厂出于安全的考虑,往往优先选择最成熟的一级供应商,国产芯片可能进不了一级供应商的体系,更难进入整车厂的体系。因此,芯片是否达到车规级要求,是否满足车厂的技术规范,是车规级AI芯片商业落地的先决条件,也是首要的挑战。 在智能驾驶商业化落地、国产智能汽车供应链差距与机遇共存的时代机遇下,黑芝麻智能科技此次新推出的“华山二号”芯片具备强大算力、优越的能耗比及算力利用率,是目前能支持L3及以上级别自动驾驶的独家国产芯片,有望赋能整个自动驾驶相关生态圈,助力中国智能汽车方向的技术创新与产业转型,并在不久的将来有机会参与推动和定义行业的标准与潮流,直接参与国际一流厂牌的竞争。 智能驾驶市场的复杂度不断提升,技术快速迭代变革,人工智能与传统汽车行业拥抱与赋能,可以预见汽车必将成为人们日常生活中最大的移动终端。在此趋势下,汽车行业迫切需要更智能、更高效、更稳定的芯片和计算能力。
一种应用于5G毫米波通信的大规模有源天线阵列,其特征在于包括天线阵列、多功能板、多通道TR组件、波控电源模块,所述天线阵列对应设置于所述多功能板上,所述多通道TR组件和所述波控电源模块固定在所述多功能板上,并与所述天线阵列相连。6月15日,中国工程院院士刘韵洁表示,南京网络通讯与安全紫金山实验室已研制出CMOS毫米波全集成4通道相控阵芯片,并完成了芯片封装和测试,每通道成本由1000元降至20元。 同时,他们封装集成1024通道天线单元的毫米波大规模有源天线阵列。芯片与天线阵列力争2022年规模商用于5G系统。 资料显示,5G频段目前分成两个部分,一个是sub-6GHz,一个是毫米波。不同于早已被业界熟知的Sub-6GHz频段,毫米波长期都是移动通信领域未经开垦的蛮荒之地,但随着挖掘的深入,毫米波拥有的“宝藏”并不少。 一是频谱资源丰富,载波带宽可达400MHz/800MHz,无线传输速率可达10Gbps以上;二是毫米波波束窄,方向性好,有极高的空间分辨能力;三是毫米波元器件的尺寸小,相对于Sub-6GHz设备,更易小型化;四是子载波间隔较大,单SLOT周期(120KHz)是低频Sub-6GHz(30KHz)的1/4,空口时延降低。 相较毫米波的优势,限制其应用的难点或许更加突出。其一,传播受限,毫米波的频率较高,自由空间损耗大,且极易因受物体阻挡,影响接受端信号质量;其二,赋形技术,现有毫米波系统采用混合波束赋形的方式,但频率效率和性能较低;其三,波束管理,在快速移动以及被遮挡时的波束管理算法需要优化;其四,mMIMO技术,受限于成本和生产工艺,现有毫米波基站只能做到4T4R设备,无法容纳更多用户;其五,芯片和终端,芯片和终端的进度落后于设备。 由于毫米波频率高,传输损耗大,因此天线和射频前端集成化,典型设计上,将毫米波天线与毫米波芯片封装在一起,业内称之为AiP(antenna-in-package)。 一直以来,毫米波芯片是高容量5G移动通讯核心,长期被国外垄断,是我国短板中的短板。此次,我国5G毫米波芯片研发成功将彻底打破 “缺芯少魂”,助力5G毫米波商用。 我国5G毫米波芯片研发成功将彻底打破 “缺芯少魂”,助力5G毫米波商用。我国商用毫米波相控阵芯片的诞生,对我国未来社会发展、国防力量提升都有促进作用。
整个装机市场的环境,其中10个电商整机里,至少有八九个主机都采用了英特尔酷睿处理器,这是目前装机市场的现状。而英特尔代号Tiger Lake的第11代移动版酷睿处理器即将发布,主要面向轻薄本市场,采用10nm+工艺、Willow Cove微架构、Xe架构GPU,并大幅强化AI性能。 早前的传闻称,代号Rocket Lake-S的第11代桌面酷睿处理器将继续使用14nm工艺,并导入Tiger Lake相同的Willow Cove微架构、Xe架构GPU,并支持24条原生的PCIe 4.0通道。 油管大V Moore's Law is Dead(摩尔定律已死)从可靠的渠道获悉,规格与Rocket Lake-S之前的爆料有些不同。根据最新说法,英特尔内部给予Rocket Lake-S CPU架构的代号并非Willow Cove,而是“Cypress Cove”的新名字,也不排除其性能表现接近Willow Cove,最终公开称为Willow Cove。也是2015年第6代酷睿的Skylake之后,英特尔桌面酷睿第一次升级新架构。 Cypress Cove架构不是简简单单从10nm Willow Cove向后移植过来的产品,而是英特尔结合14nm工艺进行重新开发,IPC(每时钟周期指令数)的提升比Skylake可能达不到Willow Cove 25%的进步幅度。但是针对高频率做了特殊优化设计,肯定要超过Tiger Lake,目标是4.7GHz乃至更高。 Rocket Lake-S、Tiger Lake都将使用全新Xe架构的GPU,但桌面版的规模比移动版小很多,执行单元数量大幅小于移动版的96组,目前情报是最多32组。64个单元的Xe架构核芯显卡在Ice Lake 15W版本可以加速到约900MHz,28W版本能冲到完整的1100MHz,Rocket Lake-S有望加速到1200MHz甚至更高,再结合架构升级,性能将大幅超越老一代。 Rocket Lake-S内部会有两颗不同工艺的芯片,其中CPU部分采用14nm,GPU和其他部分则是10nm。英特尔正在努力争取在第四季度搞定Rocket Lake-S的设计和规格。 无论是处理器本身,还是整个平台,Rocket Lake-S都将有很多新特性,可以说是近几年英特尔桌面级处理器的最大变革了,英特尔2019年泄漏的路线图上,并没有Rocket Lake-S的身影,该处理器最早也要等到2021年才会发布。