得益于医疗保健、汽车、消费电子、航空航天和国防等大量应用渠道的高产品采用,先进封装市场将在未来几年积累显著的收益。从当前市场价值升至到超过250亿美元,到2026年将超过400亿美元, 2020年到2026年期间将是增长的高爆期,其年复合增长率将达到8%。 先进封装是为了提高器件的性能,同时压缩尺寸。如今多种技术类别相继出台,如SIP、3D-IC、2.5D和扇出级封装。 一些领域的系统和设备,如运输系统、工业、家用电器、医疗、信息等,都由半导体芯片组成。事实上,半导体封装的过程是最新兴的领域之一。半导体封装材料是一种电子解决方案,用于形成集成电路芯片与封装基板的连接。 先进发展市场在类型、应用和区域上有不同的划分。 在类型上,先进包装市场分为2.5D/3D、扇出、嵌入模、, fan-in WLP、倒装芯片。其中,fan-in WLP的增长最为可观。2019年,该领域的市场份额超过10%。这种增长归因于智能手机制造商越来越多地采用fan-in WLP,以实现高密度和低外形因素芯片组。 TOP25依然把持行业命脉 据此前统计,TOP25在2018年的总体销售额比2017年增加了约4.8%,增至270亿美元(约合人民币1,836亿元),OSAT整体市场约有300亿美元(约合人民币2,040亿元)的规模,TOP25几乎占据了整个OSAT市场。 中国台湾以52%的比例遥遥领先,第二为中国大陆(21%),第三为美国(15%),后面有马来西亚(4%)、韩国(3%)、新加坡(3%)和日本(2%)。 AI、5G芯片将加速封装市场 如今AI市场的不断扩张推动着先进封装行业的增长,AI芯片组需要运算速度更快的内核、更小巧的外形以及高能效,这些需求驱动着先进封装市场。一些顶尖半导体公司也在做出战略决策,推出创新的先进封装设计技术。例如,在2020年8月,Synopsys宣布与台积电在先进封装侧进行合作。台积电将采用包含其编译器的先进封装解决方案,提供通过验证的设计流程,可用于芯片芯片封装(CoWoS)以及集成扇出型封装(InFO)等先进设计。 5G技术的普及也在增加先进封装市场的需求,5G芯片组较依赖先进封装技术,来实现高性能、小尺寸和低功耗。据GSM协会的2020移动经济报告数据,到2025年,全球5G连接数将超过18亿个,其中大部分来自亚洲和北美地区。这将极大推动IDM和代工厂对5G芯片组的先进封装的需求。 工艺节点的持续推进以及2.5D/3D封装的发展增加了生产成本,COVID-19的爆发也使得大多数芯片制造商在采购原材料和维持测试运营中面临着一些压力。此外,一些政策实施封锁使得部分晶圆厂设施关闭,且晶圆厂的运营商和工程师也处于短缺状态。由于消费电子、汽车等行业产能下降,造成了IDM和代工厂对先进封装需求的下降。 从细分市场来看,倒装芯片类型在2019年时占据了超过65%的市场份额,预计在2020-2026年讲以5%的年复合增长率成长。用于汽车、航空航天和国防等高性能应用的紧凑型半导体组件将推动市场需求。先进倒装芯片封装技术尺寸小、输入/输出密度高,使得多家代工厂和IDM的采用率提高。如英飞凌在2020年1月份宣布,因为汽车市场的高质量要求,将倒装芯片封装设定为新的生产工艺技术。 应用市场方面,消费电子在2019年时占据了先进封装市场的75%份额,预计到2026年将增加7%。主要得益于市场对紧凑型电子设备的追求。先进封装技术有助于减小尺寸、增加芯片连接性、提高可靠性并提供多功能集成,这些优势在智能手机和智能手表中体现明显。 从地区来看,亚太先进封装市场在2019年时有超过70%的营收份额。 中国大陆、中国台湾和韩国的半导体组件、消费电子设备产能的上升,推动着这些地区高份额增长。此外,这些地区的主要晶圆代工厂如Global Foundries,TSMC和UMC等,也在技术层和市场层面不断扩展高级先进封装的机会。
苹果、三星、小米等在陆续推出的新产品中加入了UWB芯片模块,作为下一个重要的无线技术,苹果等公司的举动毫无疑问地加速推动UWB技术的应用普及。而我国2022年UWB企业级应用的市场体量将达到121.5亿元,远超2016年的2.97亿元,实现快速增长。 UWB产业链主要有哪些厂商,一起来看看: 目前全球UWB定位技术主要行业巨头有:爱尔兰DecaWave 、英国Ubisense、美国Time domain、Zebra、荷兰NXP等,国内郑州联睿电子、浩云科技、精位科技等数十家企业也开始风云乍起,迎接市场的红利期。 1、爱尔兰DecaWaveDecawave是目前已知唯一支持IEEE 802.15.4的UWB定位芯片厂商。其提供低成本的芯片出售,零售价格在几美元。型号为DW1000的芯片,符合IEEE 802.15.4-2011 UWB标准协议(在理想条件下,最大可测量范围为300m)。应用于政府大楼、高货值仓库、超级市场、大型制造车间、医院、敬老院、幼儿园、酒店、大型餐馆、娱乐场所、监狱、住宅小区、物流公司、博物馆、科研机构、实验室等人员和重要物资的定位监控。 2、英国UbisenseUbisense成立于2003年1月,来自剑桥大学的工程师队伍,Ubisense UWB的显著特点是精确可靠的实时定位,有源射频标签适用于室内/户外环境且高精度,可达到15厘米,基座设施可互相替换,具备高可靠性(两个感应器跟踪三维定位),为客户端提供成熟的软件平台。应用范围包括物流、工业、危险环境、医疗保健、军事等。 3、美国Time domain公司的PLUS超频带UWB及时定位系统由标签、阅读器、同步分配面板、天线和定位软件组成。2009年底,Time Domain公司就推出欧式系统,中心频率为7.3Hz。欧式系统中用户可以动态地改变标签的发射频率(1~10Hz)和操作模式(活跃或者待机)。 4、美国ZebraZebra Technologies为美国大学生橄榄球Senior Bowl比赛提供有源UWB标签、读卡器以及Zebra软件。Zebra软件读取数据后,将计算诸如每个球员跑步的速度,其他球员与该球员的距离,以及抛球的速度和旋转度、高度、距离等信息。然后,这些数据将转发给Senior Bowl的管理软件,通过社交媒体向粉丝和媒体展示。这些信息不仅可以用来识别球员的优缺点,还可以判断球员是否疲劳。 5、法国BeSpoonBeSpoon的UWB RTLS 系统,易于部署,具有“容量大、标签待机时间长、覆盖范围广、定位精度高”等突出优点,可用于追踪工厂中成百上千的产品批次,或查询仓库中叉车、工具、栈板的实时位置。本系统适用于各类工业环境,即便在钣金车间这类多障碍、强散射的不利环境中,系统表现依然良好。 6、荷兰恩智浦将UWB应用在了汽车电子领域。日前一款基于大众Arteon车型打造的概念车于德国汉堡亮相,通过搭载恩智浦于今年7月发布的最新超宽带技术,该车在防盗保护、安全性和便利性等方面都有了大幅提升。尽管在这款车型上,超宽带技术的主要应用场景还限于验证车辆的防失窃,但未来应用将有无限可能。 7、成都精位科技在UWB系统定位精度上可达1-10cm,射频最大射程400米,基站刷新率高达8000Hz、标签刷新率100Hz、大范围定位和三维实时定位。其高精度定位平台可根据不同的平台设置不同的属性,提供API开发包,在相对统一的软件平台基础上定制开发各种应用软件,可以直观形象的显示定位目标,定位场景,管理定位数据,以满足不同行业的需求。 8、北京清研讯科于清华大学测试技术与仪器国家重点实验室,是一家工业无线精确定位产品及定位系统提供商。它提供的LocalSense精确定位解决方案,在生产环节中实时定位人员、车辆、资产的精确位置,并在定位基础上实现轨迹追踪、区域报警、摄像联动等增值服务功能。 9、中海达全资子公司联睿电子专注于区域高精度实时定位产品研发和相关技术服务,行业应用领域广泛涉及仓储物流、司法监狱、智慧城市等。日前,公司成功中标“华为UWB手机无线防盗器项目”,将为各大华为体验店提供可摆脱传统手机防盗链的无线防盗器产品,预计年采购数量万套以上。 10、广州浩云科技深耕UWB技术多年的浩云科技,UWB技术可以做到室内或者室外精准定位到厘米级别,目前公司已经掌握了将UWB嵌入手机使用的技术,形成了成熟的产品,并将相关技术及产品应用在了智慧司法、核电等多个领域,其室内静态定位精度可达2厘米,高精度技术领先同行业1-2年。 11、南京唐恩科技源自于南京大学软件新技术国家重点实验室的定位技术研发团队,推出了基于卫星、UWB、惯导和视觉技术的多种定位产品,在智能工厂和生产控制领域提供了多个解决方案,如智能工厂可视化、生产运维安全管理、工业车辆智能导肮等,提升行业的管理精细化和自动化水平。2014年率先与Decawave合作,推出国内首家UWB自研高精度定位系统。 12、上海环旭电子公司是我国“超宽带无线通信关键技术及其共存与兼容技术”的前列企业,其与飞思卡尔半导体有限公司在2006年就已推出了超宽带高清电视和家庭媒体中心等产品和系统。 13、上海仁微电子高精度UWB定位系统已成功将UWB定位技术和行业需求相结合,推出了众多行业应用方案并成功应用,例如智慧监狱的犯人实时监管、智慧工地中施工人员的安全定位、智慧化工的危险区域重点监控、智慧执法办案中心定位手环防串供等功能。 14、南京沃旭通讯科技公司成立于2012年,开始曾为中国移动布置Wi-Fi热点,后来转向UWB技术。沃旭是国内首家基于IR-UWB产品研发及应用的高新技术企业,也是“Decawave”官方指定的主要合作伙伴。2016年沃旭完成Pre-A轮融资。产品已通过国家无委、FCC,以及即将通过德国莱茵TUV功能安全认证。 15、纽瑞芯成立于2016年,公司自主研发了涵盖通讯芯片所需的高端关键射频及模拟混合IP的全自研技术平台NRTP(NewRadio-Technical-Platform),至今已联合国内外多所知名高校并开展多项课题合作,完成了6种射频核心关键IP技术模块的流片验证,其中包括5G Sub-6G及毫米波全频段高性能频率合成器、5G高速高精度模数转换器(ADC)、射频全双工集成收发芯片及关键模块等关键IP。纽瑞芯全自研的UWB大熊座(UMAJ)系列SoC芯片及系统是超低功耗设计的微型化全集成芯片方案,其中UWB大熊座(UMAJ)系统芯片已于2019年底成功流片,预计将在2020年底前正式量产。 16、深圳市润安科技发展有限公司是浩云科技控股子公司,专注于提供基于UWB精准位置服务的互联网++物联网+大数据整体解决方案,是广东省司法行政科技协同创新中心成员单位。公司拥有完全独立自主的高精度定位等核心技术。 17、长沙驰芯半导体科技作为一家物联网芯片设计初创企业,专注于低功耗物联网芯片的研发,2020年已完成了UWB(Ultra Wide Band 超宽带)芯片原型开发,突破了低功耗高性能通信基带IP、高精度定位IP和模拟射频IP等UWB芯片所需的多项关键技术,并获得了相关专利技术,本轮融资主要用于UWB芯片产品的研发和产品化,扩大研发团队的规模。 2020年8月18日,驰芯半导体宣布完成数千万元的天使轮融资,由长沙群欣与深圳市前海君爵共同投资,这两家机构分别是A股上市公司蓝思科技和裕同科技实控人名下的投资公司。 18、杭州易百德微电子有限公司成立于2017年,2020年4月正式发布UWB定位芯片——EB1003。据了解,面向消费市场的EB1003将于2020年第四季度量产。 19、深圳金溢科技公司主要产品包括基于UWB定位和视频识别技术的全自动路内停车收费管理系统,并计划于2020年上半年进一步推动V2X、UWB和RFID等技术在香港和新加坡的推广和试点。 20、杭州新华三公司打造的UWB解决方案首创WLAN和UWB融合,不仅能够提供WLAN功能,还可以进行UWB高精度人员、资产定位,新华三UWB定位方案具备端到端整体能力,其UWB定位方案可实现20-50厘米的定位精度,并具备低功耗、对信道衰落不敏感、穿透性强,强大的抗干扰性等优势,同时不会对同一环境下的其他设备产生干扰。 本次小米支持UWB,尚不确认具体的产业链合作伙伴是哪些。国内目前宣称在做UWB的企业与如上厂家。值得一提的是,国内还有大量的中小型创业团队在从事UWB解决方案的开发,主要针对的就是室内高精度定位和智能家居、智能园区、智能厂房等场景。目前,除了苹果和小米之外,三星也非常看好UWB技术,认为其将成为下一代可以改变游戏规则的无线通信技术之一。 正如小米在公开的技术演示中表现,在智能家居的应用场景下,UWB技术能够以手机为核心进行感知测距,最大程度降低了传统行业中对节点布网模式的依赖,可实现手机物联网遥控、智能开锁等功能。 在该场景下,相对频繁调用智能家居控制软件,UWB技术的应用简化了用户与智能家居设备间的交互流程,对于智能家居系统来说,是一大创新应用。实际上,在手机的协助下,UWB技术可实现的功能还不止于此。据不完全统计,iPhone 11自2019年应用UWB技术以来,除了实现小米演示的“遥控+开智能门锁”功能以外,还有不少新功能。比如: 1)协助AirDrop(即隔空投送)精准定位数据传输对象。iPhone 11上的AirDrop多了一项新功能,可以更具距离给周围的人排序,这样用户可以选择最近的人来传输数据。 2)实时定位 Real-time Location。在没有GPS的场合,例如机场的地下停车场,UWB可以帮助定位,用户可以分享给网约车司机,告知自己的实时位置,这样帮助司机找到乘客。 3)车钥匙CarKey。苹果在iOS14中推出CarKey功能,通过手机分享汽车钥匙给亲友,最初的合作伙伴是宝马,这其中就使用了超宽带UWB技术。 据近期媒体披露,物件追踪设备将是苹果的下一个UWB技术应用。有报道称苹果计划今年上半年发布一种新的小型外设AirTags,具备UWB无线功能,贴在物体如手机、钱包、钥匙等物体上,通过手机上的Find My应用可方便寻找。综上来看,UWB技术的应用场景已经从传统行业解锁至智能家居、智能办公、智慧城市、智慧交通、消费电子等领域。 立足于手机市场,UWB技术在消费类电子市场的应用爆发趋势开始凸显。据了解,2019年iPhone 11销量约为4000万部,即仅苹果一家在2019年已经带动4000万片UWB芯片的销量,这几乎达到了前些年行业UWB芯片的销量总和。 2020年,随着三星 和小米先后宣布在手机中置入UWB技术,以手机为代表的消费级应用正面向UWB技术渐行渐近。UWB技术一旦成熟,市场应用空间或超千亿级,而在众多的应用领域中,消费级应用无疑是最具想象力的。
除去负责芯片蚀刻工艺开发的人与实施蚀刻工艺的代工厂,英特尔还将面对的最困难问题是什么? 是英特尔正在运营的分散的网络业务,一个竞争愈演愈烈的市场。因为老牌与新贵公司在网络接口卡,交换,硅光子学和其他领域都与英特尔展开激烈竞争。 Hong Hou是英特尔连接部门的新任总经理,该部门是数据中心部门的子部分之一,在过去的十二个月中,DCG部门的收入达到277.1亿美元,占公司收入的三分之一以上,在利润方面更是贡献了公司的一半以上的整体利润。 我们不知道这个数据中心集团业务中究竟有多少种形式的联网,但是我们怀疑它在一定程度上反映了整个行业,然后偏向于右侧,向计算转移,远离联网和存储。很难猜测网络业务的总收入是多少,因为我们没有足够的数据,而这取决于您如何削减数据。Intel的网络接口卡业务可与Nvidia的Mellanox部门相媲美,而交换机业务如果将Barefoot和Omni-Path包括在内,则可能与Mellanox相当。硅光子学尚未带来很多收入,但用于网络电缆的收发器可能会带来很多收入。 没有简单的方法可以量化在Xeon iron上运行多少软件定义的网络软件,从技术上讲,这应该算作Connectivity Group的收入,或者由其Data Plane Development Kit和其他系统软件支持多少网络,或其(以前是Altera)FPGA的销售量中有多少用于网络用例。但是英特尔正在尝试基于各种SDK,操作系统和抽象层以及运行在其各种网络硬件上的控制平面来构建网络软件堆栈。 可以这么说,尽管面临挑战,且英特尔并不是互连网的领导者,但它还是互连领域的一个重要参与者。无论如何,就创新的步伐和创新成本而言,这种优势通常无法很好地为市场服务。因此,这也不是理想的状态。但是,毫无疑问的是,我们必须让Intel参与网络业务,并把对数据中心的了解带给我。 Hou担任一个正在经历巨大变化的连通性小组。英特尔在2011年和2012年打造了一个HPC类型网络的军火库,当中包括QLogic的InfiniBand的业务和Cray“Gemini” XT和“Aries” XC互连,其谋求合并成一个超级互联称为Omni-Path,但它刚刚剥离出来成立了Cornelis Networks,初始团队包括了一些以前的Intel和QLogic员工。 与许多使用惠普公司的Cray 200 Gb /秒Slingshot HPC和其余使用200 Gb / sec HDR Quantum InfiniBand的公司一样,英特尔让Omni-Path进入历史记录也就不足为奇了。更令人惊讶的是,Cornelis Networks希望采用InfiniBand和Aries互连的思想,并朝着自己的方向发展。 2019年6月,该公司收购了Barefoot Networks以购买其可编程以太网交换机ASIC,并获得了对交换机的P4编程语言的更多控制权,从而使其与英特尔内部的Omni-Path紧密相连。英特尔对用于超大规模生产者和云构建者的可编程以太网交换和SmartNIC(越来越多地称为DPU)更感兴趣,随着技术的飞速发展,最终将被其他服务提供商和大型企业模仿。 无论如何,这就是主他们的想法。 现实是这样:公司将大量使用计算,我们通常指的是CPU,但越来越多的GPU和少量的FPGA已经被采用,而不是内存或网络,因为他们对前者更了解。这是另一个不能讨价还价的事实:数据中心网络中传送的数据量以每年25%的速度增长。但是预算不能以这种速度增长,而且由于对原始CPU计算的偏见投资(与构建平衡的系统以更充分地利用可用的计算能力相反),网络通常不超过分布式成本的10%系统,当它的确上升到15%左右时,就会有很多哭泣和咬牙切齿的感觉。 面对所有这些压力,英特尔必须创新并帮助改善网络。Hou说,集成将成为这些关键之一。 “对于英特尔,我们希望在一个灵活的网络中提供智能和可编程性,以应对新兴工作负载的复杂性,”Hou告诉The Next Platform。“我们的愿景是优化所有这些技术资产,以便为我们的客户提供支持的解决方案,我们不仅仅是一袋零件的供应商。在未来,以太网将从端点连接发展而来,而SmartNIC也将扮演重要角色,它们将承担一些关键工作负载并加速某些工作负载并为网络提供更强的性嗯那个。该SmartNIC将与CPU,GPU,FPGA集成在一起进行计算,并且可能还会有存储设备。我们看到了明显的趋势,我们正在共同努力发展。 稍后,我们将讨论基于FPGA的新产品版本。早在3月,我们宣布了将光学元件与开关一起封装,并且收到的好评。下一步将使用光学I / O技术提供更多的带宽密度。die到die的电气互连可能会走向极限,并且可能无法提供所需数据量的连接性。因此,我们需要光学I / O来支持数据流通。” 在某种程度上,硬件是最简单的部分。尽管互连行业近年来有所发展。回到十年前,当时出现了一些信号障碍,导致创新速度显着下降,而现在,我们可以预期每18至24个月就会出现交换ASIC和匹配的网络接口ASIC的节奏。Hong说,但是,数据中心内部的网络运营商希望创新的速度更快,并且他们希望在软件和硬件方面进行创新,因为他们已经能够在数据中心堆栈的计算部分中进行数十年了。因此,可编程性(以及P4)与您可以将多少个晶体管塞入开关或网络接口ASIC以及对其进行处理一样重要。 当谈到“ Tofino”系列的Barefoot 开关ASIC时,Hou表示,客户希望Intel能保持两年更新芯片的节奏。6.4 Tb / sec 的Tofino 1芯片于2016年6月Barefoot退出隐形市场时开始送样,随着2018年即将结束,他们推出了12.8 Tb / sec 的Tofino 2芯片,该设计采用小芯片设计打破了数据包中的SerDes处理引擎,并使用25 Gb /秒的本机信令和PAM-4编码来使每通道有效50 Gb /秒。最终的交换机可以以400 Gb /秒的速度驱动32个端口,或者降低速度并按比例增加端口数。 两年的节奏可能会有所延迟,这是由于英特尔的收购以及尚未做出的决定,即以25.6 Tb / sec的Tofino 3代(即32个端口)与Tofino ASIC进行光学封装的共同决定。速度为800 Gb /秒)或51.2 Tb /秒的Tofino 4代(32个端口,惊人的1.6 Tb /秒)。要达到这些速度,将需要112 Gb /秒的本地原始信号传输,再加上更密集的PAM编码或更多的端口通道,我们将很快看到结果,Hou也很有信心。他表示,英特尔可以在将来的某个时候将102.4 Tb / sec的Tofino 5投入生产。如果执行两年鞥新的节奏,则Tofino 2现在将在2021年开始提供样品,Tofino 3将在2022年开始提供2023年产品,Tofino 4将在2024年开始提供2025年产品,Tofino 5将在2025年提供产品。2026年有2027年的产品。伙计们,请发挥您的思维能力。 同时,除了新闻稿外,Hou在我们聊天时都没有提到,“他们是否将开源Tofino架构,以确保可编程分组处理器与CPU一样开放。” 首先,开源是什么?交换机ASIC中的指令集的实际芯片设计是什么?其次,“像CPU一样开放?” 英特尔的处理器都不是开放源代码,也不是AMD的处理器,基于Arm的技术只是可授权和可适应的。IBM也基于其用于网络处理器和BlueGene / Q超级计算机的PowerPC-A2架构开源了Power ISA和两个Power内核A2I和A2O。Sun Microsystems很早以前就开源了“ Niagara” T1多线程CPU。我们将尝试弄清楚英特尔在说什么。 所有这些都以一种绕行的方式将我们带到SmartNIC或DPU,无论您想称呼它们如何。让我们先讲一下哲学。如果您实际上是在蚀刻一种新型的芯片,而该芯片实际上以与交换机或路由器ASIC或CPU或GPU不同的方式进行数据处理和处理,则DPU才是一个好名词。(FPGA可以假装为任何东西,因此您不能真正排除或包含该设备。) Fungible似乎正在创建一个真正的DPU,而Pensando似乎在做同样的事情。英特尔和Nvidia等公司正在创建将各种要素结合在一起的SmartNIC。对于Nvidia,它将Arm CPU与ConnectX网络接口芯片和Ampere GPU相结合。对于Intel而言,Hou向我们提供了预览版的最新SmartNIC,将CPU和FPGA结合在一起,并且在一种情况下,除非是拼写错误,否则可以将Tofino交换ASIC以及Intel 800系列网络接口芯片集成到复合计算中。复杂的人可以在最广泛的意义上称呼DPU。这是我们认为行业会做的,因为DPU听起来比SmartNIC更智能,更酷,更有价值。 这些新的FPGA通常针对云和通信服务提供商,我们在The Next Platform中将其分为三个部分:hyperscalers,云构建者以及其他电信和服务提供商,它们虽然规模不大,但是也不像制造,分销等传统企业。 有趣的是,新的Intel SmartNIC实际上不是由Intel制造的,而是由Inventec和Silicom制造的,前者对于hyperscalers和云构建者来说是日益重要的ODM,而后者则是过去二十年来的网络接口供应商。这些器件与纯FPGA加速卡(称为可编程加速卡)一起在节奏上,我们在2017年10月首次在Arria 10 FPGA上首次亮相以及2018年9月用Stratix 10 FPGA对其进行更新时就谈到了这些器件。这是英特尔认为的FPGA加速连续体: 用于云的SmartNIC C5020X类似于为Facebook制造的产品,每当您看到Xeon D时,都应该考虑Facebook,因为该芯片基本上是为社交网络设计并保持有效的,因此应将其称为Xeon F真的。话虽如此,微软也对这种特别的SmartNIC表示了祝福,因此也许他们俩都将使用它。 块供其使用,并具有两个50 Gb /秒的以太网端口,并且FPGA和服务器通过PCI-Express 3.0的8条通道相互链接,这主要是因为Xeon D不支持PCI-Express 4.0。 Xeon D仅具有一个内存通道,而英业达则将16 GB存入其中。Xeon D的主板上焊接有一个32 GB的SSD闪存块。最后,整个复合系统使用8通道的PCI-Express 4.0链接到服务器,当前Intel处理器不支持,但Ice Lake可以支持即将在短期内交付,并于明年年初全面推出。 具有讽刺意味的是,该卡现在可以插入使用IBM的“ Nimbus” Power9或AMD的“ Rome Epyc 7002处理器”的计算机中。 有人指出,Silicom SmartNIC N5010上面装有Tofino的Switch ASIC,它在顶部的概览图中显示,但在我们看到的示意图中肯定没有。但是,如果人们放弃Open vSwitch软交换机,而在将来的SmartNIC或DPU中放弃实际的ASIC的实际小型实现,从而摆脱软件的缓慢速度,确实会非常有趣。只要baby Switch是可编程的,意味着可以在硬件上放置新协议-这是硬件和软件之间的良好区分,并且与FPGA相比,它更倾向于软件。 框图显示,这两个由Intel ASIC驱动的以太网E810 NIC端口是可选的,每个端口以100 Gb / sec的速度运行,并且与Stratix 10 FPGA的PCI-Express 4.0通道无关。FPGA还驱动四个自己的100 Gb / sec端口,显然所有这些端口都将是相当大的I / O负载。该卡使用具有16条通道的双倍宽度但仅一个插槽的PCI-Express 4.0插槽连接回主机系统。 还有另一个PCI-Express 4.0 x16连接器,也许在这里连接了一个Switch ASIC,但这似乎不太可能。FPGA具有一个x16端口,可连接到144 MB的QDR SRAM存储器,32 GB的DDR4存储器和8 GB的HBM2堆叠存储器。那是很多内存,不包括FPGA模块固有的内存。 没有关于这两个SmartNIC的价格或总体可用性的消息。
在法国研究实验室CEA-Leti的创新日上,Facebook首席AI科学家Yann LeCun发表重要讲话时,提到Nvidia收购ARM,可以加速运行RISC-V以运行用于边缘AI应用的神经网络。 他表示:“行业发生了变化,采用属于Nvidia的ARM会使人们感到不安,但是RISC-V的出现让人看到具有RISC-V内核和NPU(神经处理单元)芯片的课鞥呢。” “这些产品价格便宜得令人难以置信,不到10美元,许多产品都在中国以外的地区,它们将无处不在。” “我想知道RISC-V是否会接管那里的世界。” 他不赞成Leti的一项主要计划,该计划致力于刺激神经网络和类似方法(例如电阻RAM(RRAM)),但是卷积神经网络(CNN)的发明者和图灵奖的AI获奖者对此有其他看法。 他说:“模拟实现面临的主要问题是很难将硬件复用与模拟神经网络一起使用。” “当您进行卷积并重用硬件时,您必须进行硬件多路复用,因此必须有一种方法来存储结果,然后需要模拟存储器或ADC和DAC转换器,这会扼杀整个想法。因此,除非我们拥有廉价的低功耗模拟内存,否则它将无法正常工作。”他说。“我很怀疑,也许是忆阻器阵列或自旋电子器件,但我有些怀疑。” 他说:“当然,边缘人工智能是一个非常重要的话题。” “在接下来的两到三年中,这将不是奇异的技术,而是要尽可能降低功耗,修剪神经网络,优化权重,关闭未使用的系统部分,” LeCun表示:“我们的目标是在未来两到三年内将相关功能引入到AR设备的芯片,并在五年内使用这种设备,而且这种情况即将到来,”他说。 “十年后的今天,自旋电子学将会取得一些突破,或者在无需硬件多路复用的情况下允许模拟计算的任何突破?” 他问。他说:“我们能提出这样的想法吗?如果没有数据改组和没有硬件多路复用,那么对于单个芯片来说,这样的设备尺寸会大大缩小,这是一个很大的挑战。” “公司正在为下一代芯片开发1nm和2nm技术,我坚信我们可以通过传感器,神经网络和控制器来实现硬件的未来,从而实现不同的发展,”Leti的首席执行官Emmanual Sabonnadiere说道。“我们正在努力制定国家计划,并在政治决策中运用科学。Edge AI旨在阻止数据泛滥和数据隐私,使人们可以拥有自己的数据。”,他接着说。 Leti还是欧洲神经网络计划的一部分,该计划正在研究神经网络芯片的新平台。 CEA-Leti副首席执行官兼首席技术官Jean Rene Lequeypes说:“有新一代技术正在研究中。” “现在,我们有超过2000人致力于下一代技术的研发。他指出,挑战在于集成所有不同的元件,而不必使用5nm及以下所需的极端UV光刻。但是我们希望最终性能达到1000TOPS / mW,这是一个很大的挑战,而且如何使用存储器,不同的技术以及如何将它们集成在一起而无需使用EUV。”
1965年,英特尔创始人Gordon Moore首次提出摩尔定律,并于1975年进行修正。根据摩尔定律,技术进步将使集成电路(微芯片)的集成度大约每18-24个月翻一番。摩尔定律问世时,集成电路问世才6年,Moore实验室在一个芯片上还只能集成50个晶体管。50年后,最先进的芯片可以集成10几亿个晶体管。但是,我们现在面临一个问题:摩尔定律,还能延续多少年? 是的,在过去50年,传统数字计算机的性能在不断提高。集成电路的技术进步一方面使得硬件变得越来越强大,另一方面也给寻求优化算法性能的系统架构师带来了挑战。 类脑计算 下一代高性能、低功耗的计算机系统需要像大脑学习。 随着设计者从通用的计算机技术转向大脑启发(神经形态)系统,他们也必须从支撑通用机器的既定形式层次结构中走出来。也就是说,抽象框架广泛地定义了软件是如何被数字计算机处理,并转换成在机器硬件上运行的操作的,这种层次结构有助于实现计算机性能的快速增长。 通用计算机设计的一个重要特点是软硬件去耦合,而这一特点使得新设备(芯片、内存等)能够获得最佳性能。通过设置对硬件的最低要求,将用高级语言编写的软件程序,转换成任何机器所需的精确等效的指令序列变得可行,这一过程称为编译。在这个编译过程中,支持使用代表基本计算操作的指令的计算机被称为图灵完备。因此,软件代码通常只写一次,然后可以在多个图灵完备的处理器架构上编译和执行,以产生等效的结果。 图1 在计算机硬件上,基于层次结构实现算法 然而,人们普遍认为,摩尔定律时代即将结束:数字计算机能力的进步速度似乎正在放缓。此外,数字计算非常耗能,促使人们寻找替代方案。 传统计算机依循冯·诺依曼架构设计,存储与计算功能分离。每进行一次运算,计算机都要在内存和CPU两个区域之间来回调用,大数据处理效率有待提高。除此之外,因为在存储与计算空间之间来回调用,芯片的能耗大部分转化为热量,既不利于设备的性能稳定,又不环保。 类脑芯片就不一样了,人脑中存储与计算功能是合二为一的。科学家们长期以来一直对大脑的计算能力着迷,大脑不仅具有难以置信的能效,而且由于其神经元和突触的架构,还拥有独特的信息处理性能。类脑芯片可以模拟人脑的复杂处理能力,启发了神经形态计算领域,一个使用大脑神经网络结构作为下一代计算机基础的研究领域。 神经形态计算的重点通常是脉冲神经网络——由相互连接的人工神经元组成的系统,其中每个神经元在激活水平达到阈值时都会表现出短暂的“脉冲”。与现代深度学习应用中常用的人工神经网络相比,这种系统更类似于生物神经网络。神经形态硬件已经产生了一系列的格式,包括数字和模拟。然而,大多数系统都有共同的设计原则,例如内存和处理器的协同定位。 开发神经形态硬件应用一个挑战是,目前不存在图灵完备性等形式层次。相反,每个新的芯片架构都需要一个定制的软件工具链,即一组编程工具来定义算法,并通过将它们映射到独特的硬件上来执行它们,这使得很难比较执行相同算法的不同神经形态系统的性能,并且需要研究人员理解算法和硬件的所有方面,以获得潜在的类似大脑的性能。 厚积薄发 清华大学施路平团队长期致力于类脑计算领域的研究。2015年,第一代“天机芯”DEMO问世,制程约为110纳米。2017年,第二代“天机芯”芯片制程为28 nm。 2019年7月31日,施路平团队以Towards Artificial General Intelligence with Hybrid Tianjic Chip Architecture为题,在Nature封面论文报道了第三代天机芯片,通过无人驾驶自行车上的实验演示,实现了机器学习和类脑算法的完美结合,标志着中国在人工智能领域进入了关键时刻。 时隔一年之后,2020年10月15日,清华大学施路平、张悠慧等人又一次在Nature发表类脑计算的最新研究成果。他们定义了一个新的层次结构,将算法的要求及其在一系列神经形态系统上的实现形式化,从而为结构化的研究方法奠定基础。在该方法中,受大脑启发的计算机的算法和硬件可以分别设计。值得一提的是,在这两个重大研究成果中,施路平教授都是通讯作者,而张悠慧教授都是第一作者之一,并在最新的Nature论文中担任通讯作者之一。 这一次,清华大学施路平、张悠慧研究团队提出了一个突破性解决方案,他们称之为神经形态完备性。这是对图灵完备性的认可,旨在将算法和硬件开发分离开来。 作者提出,如果一个类大脑系统能够以规定的精确度执行一组给定的基本操作,它就是神经形态完备的,这是对图灵完备性的一种偏离。在图灵完备性中,一个系统只有在为给定的一组基本运算提供了精确且同等的结果时,才能被定义为完备的。 神经形态完备框架 在提出的神经形态完备框架中,基本操作包括两种,称为加权和操作和元素校正线性操作,这使得硬件系统能够支持脉冲和非脉冲人工神经网络。作者展示了他们的大脑启发计算的层次结构如何提供一种机制,将给定的算法转换成适合一系列神经形态完整设备的形式。 新层次结构的一个关键亮点在于,提出了一个连续完备性——可以接受不同级别的算法性能,这取决于神经形态系统执行基本操作的准确性。这种完备性的连续性意味着,新的层次结构可以使用所有可用的模拟和数字神经形态系统来实现,包括那些为了执行速度或能量效率而牺牲准确性的系统。 图2 类脑计算机层次结构(左)与现有通用计算机(右)的对比 完备性的连续还允许算法的在同一硬件上的不同运行。例如,探索如何根据芯片大小来权衡算法精度,以降低功耗。研究人员在三个任务的算法执行中展示了这一方面(“驾驶”无人驾驶自行车、模拟鸟群的运动以及执行称为QR分解的线性代数分析)。每个任务使用三个典型的神经形态完备硬件平台来执行:作者自己的神经形态芯片,通用计算机中使用的图形处理单元,一个基于忆阻器设备的平台,可以加速神经网络的运行。 这种层次结构具有极大的创新性,主要表现为两点: 1)能够比较实现相同算法的等效版本的不同硬件平台,以及在相同硬件上实现的不同算法。这两个都是对神经形态架构进行有效基准测试的关键任务。将通用的图灵完备硬件(GPU)包含在他们的验证实验中也是非常有价值的,因为这表明在某些应用中,层次结构可以潜在地用于证明神经形态设备优于主流系统。 2)有可能将算法和硬件开发分开。如果要获得底层神经形态架构的益处,算法规模和复杂性将需要随着时间的推移而增加。因此,这种分离将有助于研究人员专注于研究问题的特定方面,而不是试图找到完整的端到端解决方案。这可能会导致对问题的更好理解,并为未来更高性能的神经形态系统的设计提供信息。 结语 面对即将到来的计算机架构发展黄金十年,类脑计算被认为是最有希望的方案之一。 清华大学团队所提出的类脑计算系统设计思路,是在现有计算机架构基础上,加入类脑计算芯片、从而引入空间复杂性和时空复杂性。这样既可以保持原有计算机处理结构化信息的的优势,又可以利用类脑计算芯片提升处理非结构化信息的能力。 团队将坚持计算机科学和神经科学融合的技术路线,并充分利用新型非易失性存储器件(包括忆阻器)的特殊性质,发展适合这些器件的新的计算模型和算法,构建完全新型的智能计算体系。
据台媒报道,在上周召开的法说会上,晶圆代工龙头台积电就近期市场有关供应链方面调整的担忧作出回应,同时再度上调今年产业与公司展望。 否认三联“不出货华为”“不谈许可申请进度”“不乘机涨价” 对于市场忧心潜在的供应链调整,是否会导致重复下单与库存风险升高,魏哲家则说,客户库存虽维持高于季节性的水位,但对此不太担心,因疫情加速数字转型,并创造许多半导体相关需求。 魏哲家认为,虽然客户高于季节性的库存水位,估将维持一段时间,但在5G、HPC(高性能计算机群)等应用长期趋势不变下,有信心明年、2022 年需求会跟上,足以缓解市场对库存水位的担忧。在此之前,有台媒指出,多家台湾IC设计厂陆续接获大陆晶圆代工厂通知,将减少供应非陆系IC设计客户产能,甚至先前预订的产能也被削减。 当被问及是否取得华为供货许可时,魏哲家则不作评论,仅回应会遵循法律规定,对于不必要的猜测不作回应,华为许可证的申请状态暂不对外透露。针对四季度是否会出货给华为的提问,魏哲家表示,禁令要求自9月15日若未得到美国相关部门颁发的许可不得供货华为。因此“在第四季度,台积电不能出货给华为。” 对于近来8英寸产能供不应求,代工市场涨价传言不断,市场关心台积电8英寸代工价格是否也会因此调涨。 对此,魏哲家说:“(我们)与客户是合作伙伴关系,不会(在这个时候)乘机涨价。”这一回应也让此前有关台积电调涨代工价格的传言不攻自破。 另外,被问及中芯国际遭美禁运一事,魏哲家表示,针对中芯国际被美国加以限制,台积电仍在评估此事对于半导体行业的影响。 3季度业绩大增 明年5nm营收可望增至两成 台积电昨(15)日公布第三季度业绩报告。财报显示,台积电第三季度合并营收约新台币3564.3亿新台币(121.4亿美元),同比增加21.6%;净利润高达1373亿新台币(47.8亿美元),较上年同期上涨35.9%。 按制程来看,5nm制程出货占台积电今年第三季晶圆销售金额的8%;7nm及16nm制程出货分别占全季晶圆销售金额的35%和18%。 总体而言,台积电先进制程(包含16nm及更先进制程)的营收达到全季晶圆销售金额的61%。 另外,魏哲家在法说会上批露,5nm制程已于今年第二季开始量产,预计将占2020年5nm制程收入将贡献营收的8%,明年营收贡献将接近、或超过20%,而基于3D IC 技术平台的先进封装测试等营收,未来几年成长幅度将稍优于公司平均水平。 另外,魏哲家进一步透露,以5nm为基础,台积电也进一步拓展4nm制程技术,预计2021年第4季试产,目标 在2022年下半年量产;至于3nm会维持先前预期,2021年进入风险性试产,目标在2022年量产。据了解,与5nm制程相比,3nm的密度提升70%,速度提升10%~15%,功耗降低25%~30%。 再度上调今年展望 在上季法说会上,台积电上调产业与公司营运展望,周四(15日)法说会则二度上调,魏哲家表示,今年全球经济虽受疫情影响,但疫情也加速数字转型,且在5G加持下,智能手机以及新兴的多元化应用需求,将持续丰富半导体需求成长。 魏哲家预估,今年半导体产业产值(不含内存芯片) 将成长4-6%,晶圆代工产值估成长近20%,均较上季小幅调升;而台积电先进制程技术维持产业领先地位,且5G智能手机、HPC动能强劲,客户看好终端应用前景,先进制程需求仍相当畅旺,估今年美元营收将成长30%。 在资本支出方面,台积电上季上调今年资本支出至 160-170 亿美元,财务长黄仁昭指出,为满足客户需求,今年资本支出估约 170 亿美元,维持上季预估值的高标。
作为全球领先的半导体微系统集成和封装测试服务提供商,10月中旬江苏长电科技股份有限公司(下称:长电科技)亮相在上海新国际博览中心举办的”IC CHINA 2020“,并且为大众带来多项创新技术与智能制造。 近年来,长电科技已率先在集成电路封测领域实现了智能制造,助力企业打造全球领先的集成电路产业基地。通过高集成度的晶圆级WLP、高密度扇出型(HDFO)2.5D / 3D、高密度系统级(SiP)封装技术,高性能的Flip Chip,多芯片(4-32芯片)堆叠存储,和FCoL高密度QFN等封装技术以及相应的晶圆芯片测试(CP),功能测试(FT)和系统级测试(SLT)等,长电科技的产品和技术涵盖了主流集成电路系统应用,包括网络通讯、移动终端、高性能计算、车载电子、大数据存储、人工智能与物联网、工业智造等领域。 在本次IC CHINA上,长电科技重点展示了其系统级封装(SiP)技术、大尺寸倒装芯片球栅格阵列封装(FCBGA)技术和扇出型晶圆级封装(eWLB)技术等。 据介绍,长电科技在封测技术各层面均处领先水平,特别是在5G方面,长电科技在大尺寸FCBGA、SiP、 AiP封装等方面已经掌握关键核心技术,产品大量应用于通讯产品及智能穿戴产品中。 以5G手机为例,大量增长的射频器件需要放置在有限的空间里,这就对设计和封装的技术都提出了非常高的要求。而长电科技本次展出的SiP技术就能够很好的满足5G对射频模组的封装技术要求。 除了5G,长电科技还将聚焦AI、汽车、存储等主流应用市场,针对不同市场的需求规划系统级封装技术演进路标,从SiP的高集成、高密度、高复杂性等方面入手,形成具差异化的解决方案,逐步实现从单面成型SiP转向双面成型SiP、基于嵌入式基板的SiP封装以及多层3D SiP等更先进的系统级封装技术。 从整个公司业务方面看,长电科技提供的半导体微系统集成和封测服务涵盖了低、中、高端各种集成电路封测范围,提供全方位的系统集成一站式服务,包括晶圆中测、晶圆级中道封装及测试、集成电路封装设计、技术开发、产品认证、系统级封装及测试并可向世界各地的半导体供应商提供直运。 除了创新技术外,长电科技对生产自动化和智能化也在不断探索,通过对设备本身的自动化和信息化改造,完成了物流和生产上下料的自动化。 本次展会也专门搭建了智能设备展示区,展示了一款配置有RFID传感器的APR500智能机器人,主要用于半导体制造领域的智能片盒运输,并能够与工厂生产管理系统进行交互。半导体产线搬运机器人以高灵活性、适用于高净化等级厂房、运载量大、物料可追溯、操作简便兼具高安全性等智能优势助力现代工厂实现智能化转型, 长电科技已迈上智能制造的新台阶。 随着新基建、5G通讯、物联网等产业大规模的走向量产,新的机遇和市场空间不断涌现,长电科技的综合优势正被充分发挥,并不断扩大,为集成电路产业持续健康、快速、有序地发展做出贡献。
固态硬盘的发展越来越快,现在的电脑基本都会选择固态+机械的硬盘组合,但是你知道自己的固态硬盘使用寿命吗? 很多朋友在购买SSD的时候,总是会去研究它们的耐久度,毕竟固态一旦挂了,里面的数据基本是找不回来了。 一、固态硬盘寿命=闪存寿命? 老实讲,对固态硬盘进行寿命的预测,只存在理论上的可能性! 很多人会把SSD寿命和闪存联系起来,其实这和闪存的工作原理有关,简单来说,就是固态颗粒的擦写P/E次数是有限制的,次数到了,固态也就废了。 而不同类型的闪存颗粒,擦写P/E次数也不同,传统的2D SLC闪存P/E次数可达100,000次,而2D MLC则有3000-5000次,企业级的可达10000次,2D TLC则是1000-1500次比较常见。 所以,通过闪存的P/E次数和SSD的容量,总结出1条公式可以计算出理想情况下SSD的最大寿命! 二、SSD寿命=(闪存P/E × SSD闪存容量)÷(写入放大系数 × 年数据写入量) 举个例子,240GB的3D TLC SSD! 那么,闪存3000P/E,闪存容量240GB,而它的年数据写入量,这里假设为2000GB,每个人的使用习惯不一样,这个写入量已经挺大的了。 那么公式计算就是:(3000×240)÷(5×2000)=72年 所以,这个固态硬盘真的可以用72年?不要天真了!这是理论上的最大寿命,计算环境都是以最理想的情况来计算的,然而世事哪有这么理想! 三、固态硬盘质保和TBW! 相反,固态硬盘的最小值才是我们值得参考的数据,这个数据一般可以参考厂商的SSD质保,大多是3、5年。 而厂商给出了这个质保时间,其实就说明这款SSD固态,在这段时间内大概率是不会坏掉的,毕竟名声还是要保住的。 另外,还有厂商会公布SSD的寿命周期写入量TBW的数据,这个数据是指SSD写入操作的正常使用范畴! 简单解释一下这个算法数据:512GB的SSD的DWPD是1,则表示说明它每天可以写入自身一次的数据,也就是512GB。如果质保期是5年,那么TBW就是512GB × 365 × 5 ÷ 1024=912.5。 而这个数据,对于我们判断寿命有一定的意义,你可以把它看作固态SSD写入耐久度的最小值。而你的SSD固态实际寿命,一般都在TBW值和闪存的理论写入最大值之间。 四、固态真实使用寿命! 虽然上面介绍了固态寿命的计算公式,但是固态因为闪存寿命耗尽而废掉的情况,少之又少! 大部分的固态,都是因为内在零件问题挂掉的,比如说主控烧了,或者是其他供电元件坏了,都会导致整个SSD瘫痪。 需要注意的是,如果你的固态闪存/主控挂了,那你的数据就真的无力回天了!而这些故障的出现,真的是看“命”! 所以,固态的真实使用寿命往往是说不准的,运气不好就会挂掉! 在这里,大白菜表示,与其计算SSD的寿命,还不如选一个品牌好、性能好、质保长的SSD升级电脑,用的开心,也放心! 至少SSD在质保期内挂掉的可能性还是比较小的!另外,电脑加装固态硬盘之后,一定要记得将Windows系统重装安装在固态硬盘中,才可以发挥出电脑的性能,提升运行速度! 如果你觉得系统重装后,后续的软件程序操作设置很麻烦,也可以选择或将Windows系统迁移,也就是将机械硬盘中的所有数据、指令以及设置等等,全部转移到固态硬盘中。 五、迁移系统操作步骤: 制作u盘启动盘,设置u盘启动,进入u盘winpe系统,打开分区助手!点击迁移系统到固态硬盘,根据提示操作即可,Windows系统迁移过程中,请勿进行其他操作,耐心等待!
AMD Zen 3桌面端处理器正式发布,将Intel、AMD、NVIDIA三大芯片巨头的激励竞争推向高潮。从纸面参数上来看,Zen 3桌面端CPU已经实现了对Intel十代酷睿的超越。而在GPU市场中,AMD同时也对NVIDIA的霸权构成了巨大威胁,在9月初发布的RTX3000系列,让我们看到了NVIDIA在高端显卡上的性价比。 AMD明显已经让CPU霸主Intel和GPU霸主NVIDIA都感受到了巨大的压力。 那么在通用芯片领域,AMD究竟能掀起多大的变化就成了一个很值得探讨的问题。 一、AMD较Intel优势更加明显 Zen 3处理器的发布,让AMD较Intel的优势进一步凸显。 AMD Zen 3在性能方面的进步非常显著。Zen 3重新调整了CCX与核心布局、缓存体系,再次显著提升了IPC和最高加速频率,相比上一代IPC有19%的显著提升,最高加速频率从4.7GHz提升到了4.9GHz。对比Intel,在多核性能方面AMD的优势继续得到巩固,在单核性能表现上,AMD进一步缩小了和Intel的差距。 AMD Zen 3的性能提升已经足够令人感到振奋,但真正令人惊喜的是AMD在能效方面的巨大进步。Zen 3是Zen、Zen+、Zen 2之后的第三代新架构,尽管依然采用了和Zen 2相同的台积电7nm工艺,但相比初代Zen架构,Zen 3架构实现了每瓦性能2.4倍的大幅提升,把热设计功耗保持在了105W。 对比Intel,据AMD官方介绍,采用Zen 3架构的新款锐龙9处理器能效比是i9-10900K的2.8倍。 从实际体验来看,基于Zen 3架构的全新一代AMD锐龙5000系列桌面级处理器在重度工作负载方面或将占据领先地位,其中AMD锐龙9 5900X处理器和上代产品相比,在选定游戏中性能提升高达26%。性能显著提升、能效比优势进一步凸显,重度工作负载和游戏表现大幅提升。 AMD Zen 3的这些优异表现,都建立在7nm工艺的基础上。说到底,AMD相对Intel最大的优势,就是率先采用了台积电7nm先进工艺制程。Intel的桌面级处理器,无论是今年4月发布的10代酷睿Comet Lake,还是明年一季度将要发布的11代酷睿Rocket Lake采用的依然都是Intel的14nm工艺。 所以现在CPU市场的情况,简单来讲就是AMD在台积电先进制程工艺平台上有了更好的表现,这使得AMD彻底发挥出先进制程的优势,并以这种领先优势不断动摇Intel在CPU市场的长期霸权。 二、AMD对NVIDIA构成巨大威胁 GPU市场的情况和CPU市场有些类似。在过去的近20年中,和Intel一样,NVIDIA同样逐渐在全球GPU市场中建立起了牢不可破的霸权。到了现在,NVIDIA同样需要面临AMD凭借先进制程工艺发起的挑战。2000年之后,全球GPU市场中只剩下NVIDIA和AMD两个玩家,AMD也只在2004-2005年市场份额短暂超过NVIDIA,其余时间NVIDIA一直相对AMD保持着巨大的优势。 数据显示,在2018年第四季度,两者的差距扩大到了极致,在当时的GPU市场中,NVIDIA份额超过81%,而AMD的市场份额只有19%。绝对的市场主导地位,让NVIDIA直接把RTX2000系列的高端消费级显卡卖到了上万元。然而到了2019年,AMD率先推出全球首款7nm游戏显卡AMD Radeon™ Ⅶ,一举扭转了局势。 2019年的GPU市场,AMD的份额上涨了近10个百分点,相应的NVIDIA的市场份额下降了近10个百分点,2020年这个趋势仍在持续。为了应对AMD的先进制程工艺挑战,在今年9月1日,NVIDIA正式发布基于全新Ampere架构GPU的GeForce RTX 30系列显卡。新一代的Ampere GPU在性能和特性上有着飞跃式的进步。 在制程工艺方面,也从台积电的12nm特色工艺变成了三星8nm特色工艺,而在价格方面,NVIDIA更是作出了令人吃惊的让步。举例来说,传统性能方面RTX 3080能超越上代旗舰显卡RTX 2080 Ti 28%左右,而且首发价格差不多只有RTX 2080ti的一半。NVIDIA之所以突然变得如此具有“性价比”显然并不是因为“良心发现”,而是受到了AMD实实在在的市场威胁。 在AMD近日处理器发布会的最后阶段,AMD还披露了新显卡的一些信息,苏姿丰博士在会上表示,RX 6000系列Big Navi将是AMD打造的性能最强的游戏GPU,这无疑是AMD在显卡市场吹响了又一轮向NVIDIA发起进攻的冲锋号。 三、背后的晶圆代工暗战 从苏姿丰博士2014年10月上任AMD CEO到2019年的5年里,AMD在CPU和GPU市场双线作战,2019年同时在两大市场双双丰收。AMD的这一波逆袭,被称为“硅谷最伟大的卷土重来之一”。 不容忽视的是,AMD的“卷土重来”建立在先进制程工艺的基础上。更确切地讲,正式配合台积电先进制程工艺不断革新架构,才有了AMD近年来在通用芯片市场的巨大成功。同样的,Intel和NVIDIA的市场霸权之所以被AMD动摇,最根本的原因也是因为他们在先进制程方面的相对保守。 Intel在先进制程方面的落后,归根结底是因为其所坚持的IDM模式,被台积电的Foundry模式所超越。而NVIDIA在先进制程方面的保守,则是因为NVIDIA在市场中的巨大成功,令其缺乏更新制程工艺的动力。如今AMD凭借先进制程工艺“卷土重来”,引发了通用芯片巨头们在先进制程工艺领域的“鲶鱼效应”。 现在无论是NVIDIA抑或是Intel都明显加快了各自在先进制程工艺领域的布局,NVIDIA联合起了三星半导体,而Intel则加快了其10nm生产线建设。所以通用芯片巨头间的这些明争暗斗,其实也对全球晶圆代工行业产生了显著影响。当然,这些通用芯片巨头间的争斗,和中国同样也有紧密的联系。 四、国产芯任重道远 目前来看,虽然Intel、AMD和NVIDIA都是三家美国企业,但对他们之间的竞争态势,我们却不能只是看热闹。 一方面,我们目前无法摆脱对这些通用芯片巨头的依赖。 无论是CPU还是GPU,目前全球也只有这三家公司能够设计生产,国产自研芯片虽然有了一些成果并且已经可以投入市场,比如说龙芯、兆芯的一些产品已经可用,但想要做到完全替代Intel、AMD和NVIDIA的产品,目前还并不现实。而这些通用芯片除了应用于消费级市场,用在台式机电脑和笔记本电脑上,还被大规模的应用于服务器中。更进一步说,其实目前蓬勃发展的云计算技术,就需要大量的服务器支持,并不能摆脱对Intel、AMD和NVIDIA这些通用芯片巨头的依赖。 另一方面,这些通用芯片巨头早已不是单纯只做通用芯片。 Intel、AMD和NVIDIA三大通用芯片巨头固然是做CPU、GPU这类通用芯片起家的,目前主要做得也还是这些,但却绝不局限于此。 Intel从2014年就开始做AI芯片,目前其AI芯片发展已经进入成熟阶段。除了自研基于CPU、GPU的AI芯片外,还收购了Moviduis、Nervana及Habana等AI芯片公司。AMD在AI芯片方面同样也在努力进取。 NVIDIA的GPU之前被大量应用于人工智能计算,目前NVIDIA无论硬件、抑或软件算法在人工智能领域都颇为领先。除此之外,NVIDIA近期努力推进收购ARM的事项,一旦NVIDIA完成对ARM的收购,那么国产自研基于ARM指令集的芯片都会大受影响。 Intel、AMD和NVIDIA三巨头的影响力又不仅限于通用芯片,三巨头之间的大战,最后终将对我国产生直接影响。只有国产芯片、国产半导体产业快速发展,我国半导体行业才能跳出巨头的影响。
什么是第三代半导体呢? 半导体发展经历了三个阶段,第一代半导体的材料是以硅和锗为代表,第二代半导体有了砷化镓,磷化鎵等材料为代表是4G时代的主力,第三代半导体则是以氮化镓,碳化硅,氧化锌,氧化铝,金刚石为代表,更合适在高频,高功率及高温环境下工作,这是各国在集成电路领域中竞相追逐的战略制高点,将对产业格局产生重大的影响。 为什么我们国家现在如此重视半导体的发展,原因大家都知道,就是以美国为首的国家对我国实行芯片禁令。 我国每年进口芯片的规模达到3000亿美元,买芯片所花的钱是买石油的2倍之多,石油我国可以全球购买,沙特贵了就买俄罗斯的,俄罗斯的贵了可以买伊朗的,但是芯片的大卖家就只有一个那就是美国,在高端芯片被美国把持怎么也绕不开这条路。 我国目前走的是全球化道路强调产业分工,美国在芯片产业具有强大的领先优势,本来花钱就可以解决的事,但是现在美国一根筋不卖高端芯片给中国,这就让美国自己的芯片产业遭受打击,因为全球除了中国,任何一个国家不能吃下美国的芯片单量。 而美国现在对打击中国的决心非常大,宁愿自己蒙受重大损失,也要把中国的高科技按死,这就逼迫中国自己另起炉灶在芯片全产业链上实现独立自主,我国现在的芯片制造能力和美国有一段距离的差距,比如美国德州仪器一家公司就拥有125000种模拟芯片,而中国全国也不过5000种。 中芯国际是中国内地规模最大,技术最先进的集成电路芯片制造企业排名全球前五,粗听中芯国际的世界排名还可以,但是全球市场占比还不足5%。 最近中芯国际从美国退市进入科创板,摆明了是要摆脱美国的控制全力为华为等本国企业提供服务,美国政府当然不会坐视不管,放风要将中芯国际列为实体黑名单。 而目前还有一个《瓦森纳协定》也对中国很不利,这个协定的全称叫做《关于常规武器和两用物品及技术出口协定》由美国,日本,韩国,澳大利亚等42个成员国,唯独就是没有中国,中国是这个协定所针对的国家,在中芯国际建厂时为了绕开这个协定从第三方进口二手设备非常艰难。 最近国家出台了一系列政策,对半导体企业实行10年免税,科创板快速融资,产学研相结合,设置集成电路一级学科,这些措施非常强力,在十四五规划中将大力发展第三代半导体为重点项目,确定了在5年内做到芯片国产化率70%。 举全国之力快速发展半导体产业,发挥“两弹一星”的精神,必将可以将芯片全产业建立起来,并且达到世界一流水平的高度。
上个世纪末期,由于电脑图形处理能力弱,3D游戏画面惨不忍睹,即使最顶级的3D加速卡也无法驾驭高分辨率游戏,高分辨率是800x600。因而,当时3dfx公司推出双显卡方案超前技术。 而大名鼎鼎的《仙剑奇侠传》的分辨率是320x240,对于今天的玩家来说实在是难以理解。 既然一块3D加速卡不够,那就两块并联怎么样?3dfx的第二代产品,支持双卡并联的Voodoo 2在1998年前后成为全球电脑玩家争相购买的宝贝,热度丝毫不亚于iPhone手机——当然前提同样是不差钱。 后来3dfx被英伟达(NVIDIA)收购,双卡并联(SLI)技术也被后者收入囊中,之后的十几年里双卡并联平台一直是顶级玩家的挚爱,双卡还不够,所以变成了多卡。 收购了ATi的AMD成为NVIDIA在显卡领域的唯一竞争对手,不甘示弱地推出了属于自己的双卡并联方案,名曰交火(CrossFire)。 时至今日,情况发生了很大变化,不论是两块独立显卡,还是集成显卡加独立显卡(这种方案相当别扭实际效果相当令人失望),或者一块双芯显卡(贵得出奇),AMD和NVIDIA两家似乎都已经不感兴趣了,渐渐地从硬件到软件不再提供任何支持。 为什么会这样呢? 从1997年诞生的Voodoo 2开始,双卡并联功能的出现,主要是为了应对顶级显卡也不够用的场合。经过了二十多年的发展与变迁,这一最最基本的精神依旧没有动摇。这样一来,如果不是最顶级的显卡如RTX 3090,其他显卡根本没有组建并联的必要。 也许有人会说,两块次高端显卡加起来可能比一块顶级显卡便宜,而每块显卡的理论性能又超过了顶级显卡一半。没错,没错,以RTX 30系列为例,RTX 3090的价格是3080的两倍,但性能却远不及两倍。 然而,大家可别忘了SLI是有损耗的,实际性能远不及翻番,甚至能提高30%就不错了,奔着性价比去组建SLI,从而避开昂贵的高端旗舰卡,这种想法其实是比较幼稚的。 再者,多显卡系统大幅增加了DIY的难度,提升了空间需求和整机功耗,还降低了兼容性,不论从哪个角度看都是事倍功半的做法。 顶级显卡的销量本来就不算大,而且今年的顶级双卡平台明年又会过时,换新成本也要翻倍,所以这种方案对于玩家来说其实也是吃力不讨好,NVIDIA和AMD都看清了这种趋势,所以双双决定淡出该领域也是合情合理。 但是,重新进军独立显卡的英特尔看起来对这种技术很有兴趣,原因很简单也很残酷,既然性能落后,就得数量来凑。 近日SiSoftware的数据库里,赫然出现了两款全新的Intel Xe显卡,其中一块包含128个执行单元和1024个流处理器,这是迄今为止已出现的Intel Xe显卡的最高规格。 作为对比,Tiger Lake中集成的DG1独立显卡应该是96个执行单元和768个流处理器。看到这里你发现了什么?虽然是独立显卡,似乎没什么明显的优势啊,这还怎么玩? 新卡的核心频率创下新高达到了1.4GHz,同时拥有1MB的二级缓存和3GB的显存。 毫无疑问,这样的新显卡对于英特尔自己来说是个进步,拿到市场上和AMD或NVIDIA正面刚是不现实的。 SiSoftware里的另一个显卡性能更强一些,包含192个执行单元和1536个流处理器,但意外的是检测显示这是一块双卡,很可能是96单元核显与96单元独显的组合。 再往下看,2MB的二级缓存和6GB的显存,明显也是对应双GPU而存在的。至于这是单卡双芯还是双卡并联,目前还是个未知数。 平心而论,老玩家们对Intel出新独立显卡这件事,已经有些审美疲劳了。 上个世纪的i740勉强在中低端领域占领了一席之地,之后英特尔就只能做集显或核芯显卡了,整整二十年的空白是很难补上的。十几年前,英特尔就大张旗鼓地想做Larrabee,结果雷声大雨点小,产品失败不了了之。 这些年英特尔从未放弃过进军独立显卡的渴望,却又一直没有突破性的进展。更雪上加霜的是,ARM不断侵蚀英特尔的基业,NVIDIA收购ARM进一步加大了威胁,AMD在CPU领域已经保持了两年以上的领先优势——这在之前英特尔与AMD的竞争历史中是从未有过的,英特尔面临着格罗夫时代以来最严峻的局面,难免顾此失彼。
2017年3月,英特尔Ryzen处理器上市,随后,AMD成为英特尔在CPU市场的重要竞争对手。在Ryzen到来之前,AMD在2016年底仅占据了CPU市场不到18%的份额。 最新的第三方估计显示,这家芯片制造商现在控制了接近37%的市场。其他来自视频游戏平台Steam等的可靠估计也表明,AMD一直在不断蚕食英特尔的CPU主导地位。而AMD还没有完成在CPU方面对英特尔的锤炼--尤其是在其最新的Ryzen 5000 CPU到来之后。这就是原因。 在单线程CPU性能方面,英特尔历来比AMD享有优势,而AMD认为单线程性能对普通用户和游戏爱好者来说都比较重要。但AMD最近一直在通过提升CPU的时钟速度来弥补单线程性能的差距。 AMD凭借新的Ryzen 5000处理器在这方面可能已经超过了英特尔。根据AnandTech进行的测试,基于最新的Zen 3微架构的AMD Ryzen 9 5900X处理器在单线程性能上比英特尔基于Tiger Lake的竞争产品Core i7芯片高出6%。 相比上一代Ryzen 9 3950X(基于Zen 2架构),AMD这次成功实现了17.8%的单线程性能提升。至此,AMD可能在十多年后重新夺回了单线程性能的桂冠。 根据AMD自己的说法,高端的Ryzen 5000处理器可以比上一代芯片的游戏性能提升26%。AMD还宣称,该芯片在游戏性能上比竞争对手英特尔芯片快7%。 但现在性能的提升将付出一定的代价。AMD似乎已经放弃了之前低价竞争英特尔芯片的策略,相比前代芯片的价格,AMD全面提升Ryzen 5000处理器的价格。显然,AMD希望将其单线程性能优势转化为更多的钱。但这是正确的做法吗? 现在,AMD似乎已经在单线程性能上超越了英特尔,该公司向消费者索要溢价也就不足为奇了。考虑到其在CPU市场上日益增长的影响力,以及其芯片相对于英特尔所享有的技术优势,这家芯片制造商现在处于涨价的有利位置。 AMD的Ryzen 5000处理器基于上一代Zen 2处理器所采用的7纳米(nm)工艺的改进版,使芯片制造商能够提供更好的性能和速度提升。另一方面,英特尔在2021年第一季度推出第11代Rocket Lake桌面处理器时,预计仍将停留在14纳米工艺上。 有传言称,英特尔可能要到2021年下半年才会推出第12代10纳米Alder Lake处理器,与AMD的7纳米工艺竞争。 因此,AMD很可能继续享有对英特尔的技术领先优势,特别是考虑到根据传言,AMD可能会在2021年底之前凭借Zen 4微架构向5纳米制造工艺转变。
深圳市泰德兰电子有限公司是一家专业的芯片代理企业,于2005年成立,主要代理TOREX(特瑞仕),MOJAY(茂捷半导体),AOS(万代),honeywell(霍尼韦尔)主要销售传感器,AC-DC,锂电充电IC,LDO,DC-DC,电压检测器、负载开关、肖特基二极管等产品,为客户提供高性价比的产品和服务。 电源管理芯片(PowerManagemenTIntegratedCircuits),是在电子设备系统中担负起对电能的变换、分配、检测及其他电能管理的职责的芯片。主要负责识别CPU供电幅值,产生相应的短矩波,推动后级电路进行功率输出。 电源管理芯片使用中的特性 1、电源芯片在没有电流的情况下相同能够编程,并且电流最高可达800mA; 2、在使用的过程中,不需要外接部件,比如说二极管、感应电阻等等,能够独自使用; 3、电路在关闭形势下相同能够支持电流的经过,只需要电流达到25uA; 4、充电的时候能够设置成无涓流充电形式,能够起到省电的效果。要想让充电速度更快,选用带过温保护的恒流恒压充电,这种充电方式不用担心过热。 5、发动的时候,能够选用软发动的方式,能够有效地限制冲击电流,防止设备在发动时遭到损坏。 电源管理芯片应用范围 电源管理芯片的应用范围非常广泛,开展电源管理芯片关于进步整机功能具有重要意义,对电源办理芯片的挑选与体系的需求直接相关,而数字电源管理芯片的开展还需跨过本钱难关。开展电源管理芯片关于进步整机功能具有重要意义,对电源办理芯片的挑选与体系的需求直接相关,而数字电源管理芯片的开展还需跨过本钱难关。 当今世界,人们的日子已是顷刻也离不开电子设备。 电源管理芯片在电子设备体系中担负起对电能的改换、分配、检测及其它电能办理的职责,电源管理芯片对电子体系而言是不可或缺的,其功能的优劣对整机的功能有着直接的影响。
作为一个足够成熟的市场,欧洲市场一向受各大厂商欢迎。在巨头运营商把控下的欧洲市场,即使有较高的门槛,也依旧不缺前赴后继者。而在精耕细作、稳扎稳打的区域市场策略下,OPPO正逐步深入欧洲市场。 继前几日宣布与德国电信建立战略合作伙伴关系后,OPPO又宣布与全球领先的电信运营商Orange(法国电信)进行联合创新合作,推出全新搭载eSIM功能的OPPO Watch,意味着人们可直接通过OPPO Watch实现独立通话和独立上网。 不仅如此,OPPO也将携手法国电信推出个性化软件配置服务,也就是说,无论从法国电信渠道还是在公开市场购买设备的消费者,都可以畅享法国电信的全套服务。自2020年10月起,OPPO在欧洲公开市场发售的部分智能手机将适配法国电信个性化服务,包括两款全新的5G智能手机Reno 4Z 5G和Reno4 Pro 5G,以及一款OPPO 4G智能手机A72。 通过与法国电信的合作,OPPO将进一步拓展欧洲公开市场和可穿戴设备市场,逐渐成为当地的重要参与者。 其实早在2019年,OPPO就开启了与法国电信的合作历程,凭借严苛的品质要求和丰富的技术积累,仅两年便实现了从入库选型到创新合作伙伴的升维。截止目前,OPPO已经与包括法国电信、沃达丰、德国电信等在内的欧洲主要运营商建立了合作关系,并逐渐从手机选型、联合营销向更长远的战略合作目标发展。 法国市场的布局只是OPPO进军欧洲市场的一个缩影。为进军欧洲,OPPO已经做了非常多的准备和功课。早在2018年6月,OPPO就以Find X系列的发布为契机,正式进军欧洲市场。在之后的两年内,OPPO取得了非常不错的成绩,其业务不仅仅进入了比利时、法国、德国意大利,还进入了爱尔兰、波兰、葡萄牙、罗马尼亚、俄罗斯、西班牙等十四个欧洲国家。 与此同时,作为一家重视技术研发的企业,仅仅是2019年OPPO就投入了100亿元研发费用,而且未来3年内还会陆续投入数百亿元进行研发。在5G网络、人工智能和大数据等新兴领域的投入,使OPPO的产品力和品牌认知度持续提升。 OPPO还针对欧洲市场因地制宜地进行本地化运营,比如提前进入各个国家考察调研市场情况,从各个国家的市场特点和用户需求出发,提供相应的本地化服务。 OPPO还设立了专门的国际业务团队,选用海外员工负责海外地区的市场营销、研发、客户服务、品牌管理和互联网运营业务,这也让OPPO在欧洲多个国家获得了当地消费者的认可。与Orange(法国电信)的合作,会让OPPO在欧洲的业务发展更加迅速和便利,从而进一步深入欧洲市场并最终向全球市场覆盖。
2015年,芯片设计公司数量为736家,一年后,几乎翻了一倍成为1362家。其中,AI芯片最为耀眼。经过几年的探索和沉淀,AI的发展也许已经悄然进入2.0阶段。 大家更加注重与特定应用场景的结合,比如智能汽车,智能安防等;有部分则从单纯的基于ASIC的方式转向尝试通用计算道路的探索,兼顾通用性并针对一些重点应用做相应的优化。少了吵吵嚷嚷的热闹,多了踏踏实实的落地。 随着应用的深入和落地,云端、边缘和终端侧多点开花。每个节点的芯片侧重点可能略有不同,云端更加强调性能的极致,通常采用异构的芯片架构,用GPU或者专用的ASIC芯片与CPU配合,处理复杂的数据训练或者inference的工作,那GPU/ASIC之间以及GPU/ASIC与CPU之间以及GPU/ASIC与存储模块之间都需要极高性能的接口来支撑,如PCIe、CCIX、GenZ、DDR等; 边缘或者终端侧虽然不像云端对性能要求那么高,但是他们需要面对更多复杂的应用场景,如前面提到的智能驾驶、智能医疗、工业智能等,那么他们会在兼顾性能的同时更加看重能耗比的指数,因此也会有一些新的接口或者总线类型来适应他们的应用,如MIPI、UFS、LPDDR等。 从云端的总线来看,前面提到有很多种,我们以PCIe来举例。虽然它的效率和性能并不是最高的,但它目前是最成熟的,用的也比较多。目前商用落地的是PCIe 4.0技术,那到今年年底,有一些领先的服务器厂商就会推出PCIe 5.0的样品。那PCIe 5.0的速率已经达到了32Gbps,而且在这个速率下还要考虑到与前代的兼容,它的channel loss会非常大,在奈奎斯特频率下会达到36dB。在如此高的速率下要保证这么高的设计余量,对设计工程师来说,这是一个非常大的挑战。 举例来说,即使经过非常复杂的预加重、均衡、信道训练等,那最终达到芯片接收端,芯片内部的眼高不会超过15mW,眼宽不会超过10ps。这是非常非常小的余量。如果设计的余量不够,那总线的丢包率就会比较高,就会导致重传,那芯片的效率就大大降低了。那如何实现更大的设计余量?如何去测试设计的余量,如何将设计和测试做闭环验证都是工程师面临的巨大挑战。 那对于边缘或者终端侧来说,要考虑成本、要考虑功耗。所以它的总线技术不会像云端走的那么快,但它会采用一些特殊的总线来适应终端场景的需求。比如在云端更多的采用类似PCIe这种来做计算,但在终端/边缘侧则更多的采用类似MIPI这种总线进行计算或者数据的传输;在云端的数据存储总线可能会用到DDR4或者DDR5,但在终端/边缘,可能更多的会用到LPDDR;对于云端,可能更多的使用PCIe等去做扩展,而终端会更多倾向于用USB去做扩展。所以两者差异还是很大的。 除了速率上的不同,终端侧其实还需要考虑连接的简洁性以及功耗的性能,所以终端侧的总线的内部协议或者信号的调整方式上反而更加复杂一些。比如Type-C接口,它外面的连接非常简洁,但是其实它内部协议非常复杂。 它要考虑正反插,要考虑供电,要兼容显示和数据传输等等,所以终端侧的这些总线的设计要求与云端又不一样。 当然,无论是什么样的AI芯片,无论是什么样的技术浪潮,是德科技都能陪伴在您的产品设计和研发过程中,为您的芯片质量提供坚实的保障。 无论是计算总线还是内存接口总线,无论是仿真还是产品测试,是德科技都有全面的解决方案,为您的产品保驾护航。