摩尔定律慢慢的有点跟不上时代的步伐, 芯片“摩尔定律”可否被刷新?
扫描二维码
随时随地手机看文章
摩尔定律是英特尔创始人之一戈登·摩尔的经验之谈,其核心内容为:集成电路上可以容纳的晶体管数目在大约每经过18个月便会增加一倍。摩尔定律是内行人摩尔的经验之谈,汉译名为“定律”,但并非自然科学定律,它一定程度揭示了信息技术进步的速度。
被称为计算机第一定律的摩尔定律是指IC上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。摩尔定律是由英特尔(lntel)名誉董事长戈登·摩尔( Gordon moore)经过长期观察总结的经验 。
1965年,戈登·摩尔准备一个关于计算机存储器发展趋势的报告。他整理了一份观察资料。在他开始绘制数据时,发现了一个惊人的趋势。每个新的芯片大体上包含其前任两倍的容量,每个芯片产生的时间都是在前一个芯片产生后的18~24个月内,如果这个趋势继续,计算能力相对于时间周期将呈指数式的上升。 Moore的观察资料,就是现在所谓的Moore定律,所阐述的趋势一直延续至今,且仍不同寻常地准确。人们还发现这不仅适用于对存储器芯片的描述,也精确地说明了处理机能力和磁盘驱动器存储容量的发展。该定律成为许多工业对于性能预测的基础 。
经过多年发展,Chiplet(模块芯片)已不再是“少数人的游戏”。日前,Intel联合AMD、Arm、高通、台积电、三星、日月光、谷歌云、Meta、微软等行业巨头成立Chiplet标准联盟,制定了通用Chiplet的高速互联标准“Universal Chiplet Interconnect Express”(以下简称“UCIe”),旨在共同打造Chiplet互联标准、推进开放生态。
对生态建设、产业发展来说,行业标准的制定尤为关键。截至目前,虽然Chiplet还没有统一的中文名,但作为摩尔定律的“救星”,它受到了包括AMD、Intel、苹果等公司的青睐,越来越多地被应用于它们的产品中。
“这些擅长做‘大芯片’的公司,看到了通过Chiplet技术所能带来的性能和成本平衡,于是大力投入。”芯原股份创始人、董事长兼总裁戴伟民告诉《中国经营报》记者,Intel、高通等这些代表了X86和ARM阵营最有影响力的公司都在牵头制定Chiplet标准,这使得UCIe有很大可能将成为主流标准,加上ASE、台积电等领先的封装厂都参与其中,这对Chiplet标准联盟发展Chiplet的核心封装技术是一个有力保障。
不过,国内半导体研究机构芯谋研究总监王笑龙则表示,UCIe的制定是Chiplet生态发展的前提条件,不是所有类型芯片都能从Chiplet这种技术方向中受益,Chiplet能为大型SoC(系统级芯片)提供可选方案,但不要神化它。
想要解读UCIe,必然绕不开Chiplet。Chiplet是什么?业界有个十分形象的比喻,即可把Chiplet视为乐高积木,它能将采用不同芯片制造厂、不同制程的芯片像搭积木一样进行组装,从而形成一个系统芯片。
“Chiplet的原型来自于Marvell创始人周秀文博士在ISSCC(国际固态电路峰会)2015上所提出的MoChi (Modular Chip,模块化芯片) 架构概念,它类似于乐高积木的基础模块,具有很好的通用性,可以灵活组建成不同的模型(芯片)。”
戴伟民表示,Chiplet是把一些具备某些具体功能的半导体IP先做成一颗颗die(裸片),再将这些die按需要组合在一起,加上必要的电路设计,最后借助先进封装技术做成一颗完整芯片。
在电子创新网CEO张国斌看来,Chiplet概念的提出和势头渐盛与摩尔定律日趋放缓密切相关。“随着半导体工艺制程向3nm/2nm(纳米)推进,晶体管尺寸已逼近物理极限,继续提升晶体管密度即使在技术上可行,也会带来巨额成本。”他表示,Chiplet通过一组“小芯片”混搭成“类乐高”的组件来拯救日趋失效的摩尔定律。这是一条和传统SoC不一样的技术路线,是SoC集成发展到一定程度之后的一种新的芯片设计方式。
摩尔定律,是由Intel的联合创始人Gordon Moore在20世纪60年代提出,当时他表示计算机芯片上的晶体管数量大约每两年会翻一番,这也意味着这些芯片及其供电的计算机的性能在大致相同的时间表上将会大幅提高。
在随后的半个世纪里,摩尔定律一直被认为是有效的,但是随着芯片制造厂商达到原子级电路和电子物理的极限,摩尔定律慢慢的有点跟不上时代的步伐,就在这个时候,以NVIDIA创始人黄仁勋命名的黄氏定律逐渐步入大众的视野。
黄氏定律和摩尔定律有类似的说法,表示支持AI 人工智能的芯片效能会每两年增加一倍,效能提升主要是由于软硬体随着时间而做出的改进。
这次大会Bill Dally主要介绍的三个项目分别是:
MAGNet
NVIDIA开了一个名为MAGNet的工具,MAGNet采用了NVIDIA独有的新技术来协调并控制通过设备的信息流,最大程度地减少数据传输及带来的消耗,使其生成的AI推理加速器在模拟测试中,能够达到100TOPS/W(每瓦特100万亿次操作)的推理能力,比目前市场上顶级的的商用芯片仍高出一个数量级。
光链路
NVIDIA的另一个项目,目标就是以更快速的光链路取代现有系统内的电气链路,这个项目是NVIDIA与哥伦比亚大学一起合作,共同研究如何利用电信供应商在其核心网络中所采用的技术,通过一条光纤来传输数十路信号。目前他们正努力尝试在一毫米大小的芯片上实现Tb/s级数据的传输,如果真的成功,将是目前互连密度的十倍。
在大会上Bill Dally也展示了最新的NVIDIA DGX系统模型,该模型采用最新的光链路技术,集中了160多颗GPU,实现超高速的数据传输。
Legate
为了能最大程度的利用光链路的能力,NVIDIA特地研究了全新的编程系统原型Legate。Legate可以帮助开发者在任何规模的系统上运行针对单一GPU编写的程序,甚至对于 Selene这种搭载数千个GPU的巨型超级计算机一样适用。