一批高性能处理器表明,延续摩尔定律的新方向是向上发展。每一代处理器都要比上一代性能更好,究其根本,这意味着要在硅片上集成更多的逻辑。但其中存在两个问题。首先,我们缩小晶体管及其组成的逻辑和内存块的能力正在放缓。其次,单块芯片已经达到了尺寸极限。光刻工具可以在850平方毫米的面积内绘制图案,这大约是一个现代服务器图形处理单元(GPU)的大小。
2018年,《彭博商业周刊》的一篇文章做出了惊人断言,声称中国间谍部门在电路板中插入了毫米级芯片,从而在为亚马逊、苹果等公司生产的服务器中制造了后门。
想象有一台由860亿个交换机组成的便携式计算机,其复杂的通用智能足以构建一个太空文明,但重量仅为1.2至1.3千克,功耗仅20瓦,并且移动时会像果冻一样抖动。现在,人脑中就有这种机制。这是生物进化的惊人成就。但我们并没有相关蓝图。现在设想一下,要怎样在无法观察其微电路活动的情况下,弄清楚这一生物电子学奇迹的工作原理。这就像要求微电子工程师在不使用数字逻辑探针的情况下,对最先进处理器上运行的架构、微码和操作系统进行逆向工程,这几乎是一项不可能完成的任务。因此,我们很容易理解为什么人类大脑(甚至是老鼠和更简单生物的大脑)的许多运作细节仍然如此神秘,甚至对神经科学家来说也是如此。人们通常认为技术属于应用科学,但脑科学研究本质上属于应用传感器技术。发明的每一种测量大脑活动的新方法(包括头皮电极、磁共振成像和植入大脑皮层表面的微芯片)都为了解我们所有器官中最复杂、最人性化的结构带来了重大帮助。大脑本质上是一个电器官,这一事实加上它的胶状稠度带来了一个棘手的技术问题。2010年,我与霍华德•休斯医学研究所(HHMI)的顶尖神经科学家开会探讨了如何利用先进的微电子技术发明一种新型传感器。我们的目标是:在任何给定的极少量脑组织中,同时监听成千上万个神经元之间的电对话。
很多汽车生产商都在迫不及待地向全世界推销电动汽车,但他们面临的挑战可能会导致工程师的创新成果付之东流,因为电池和合乎道德的电池生产原材料供应极其紧张。特斯拉和大众汽车等汽车生产商认为可将储量丰富、元素周期表上的第25号元素锰(位于铬和铁之间)作为制造电池的最新金属材料,生产主流买家能够负担得起的电动汽车。
电线在携带电力四处移动方面有很多优点,但它也有缺点。毕竟,对于反复插拔手机和其他可充电小型设备,谁没有过心生厌倦呢?这确实很麻烦。
全球半导体短缺让所有微控制器使用者的生活都变得难熬了起来,如今的订货周期有时会长达好几年。不过,售价4美元的树莓派Pico是一个亮点,它是一个以新型RP2040芯片为基础的微控制器。RP2040不仅有强大的计算能力,还没有受到其他芯片短缺的影响。因此,在决定打造廉价的DIY伽马闪烁光谱仪时,它就成为了理所当然的选择,不过我没有意识到自己会为经常影响第一代集成电路的初级问题而感到困扰。
1997年,哈佛商学院教授克莱顿•克里斯坦森(Clayton Christensen)的《创新者的窘境》一书在风险投资人和企业家之中引起了轰动。大多数人从中得到的教训是,要转而采用最终会取代当前商业模式的新方法,一家经营良好的企业是无法承受其中的代价的,而且往往为时已晚。
苹果公司宣布推出M1 Ultra,再一次让爱好者和分析人士大吃一惊,M1 Ultra是M1 Max的变形,有效地将两块芯片融合为一块芯片。其结果是,软件将这种双芯片设计视为一块硅片。2022年3月,英伟达在其GPU技术大会上发布了类似的消息。该公司的首席执行官黄仁勋宣布,该公司将两块新款Grace CPU处理器融合为一块“超级芯片”。
亚当•格罗塞尔(Adam Grosser)希望让人员、货物和能源的运输对每个人来说更快速、更高效。因此,早期风险投资基金UP Partners的这位董事长兼合伙人正在对多个交通运输项目进行投资。这些项目包括贝塔科技公司的电动垂直起降(eVTOL)城市运输飞机、Quincus公司针对供应链和物流提供商的操作系统,以及Teleo公司用于采矿、建筑和其他重型设备的远程操作平台。
我爬进一个覆盖着传感器、电机、齿轮和轴承的上半身外骨骼设备中,然后身体前倾,抬起头,把脸贴在视觉系统吊在天花板下方的目镜上。在我面前,我看到的是一块漆成黑色的大木板,中间有金属孔网格。木板是真实的。我手中的钉子也是真实的。我尝试以最快的速度将钉子从一个孔移动到另一个孔。当我开始移动钉子时,目标孔上会出现一个虚拟锥体,以及一个向虚拟椎体缓慢移动的虚拟台面。当我将钉子沿着平面滑向锥体并插入孔中时,我能感觉到这个台面的存在。这就是20世纪90年代初开发的虚拟卡具(Virtual Fixtures)平台,用于测试“感知覆盖”的潜力,提高人执行灵巧性的手动任务的表现。它奏效了。
人工智能(AI)研究正在朝着人类级或超人类智能机器的长期目标大步迈进,然而,如果它以目前的形式取得成功,很可能给人类带来灾难性的影响。原因在于,人工智能的“标准模型”要求机器去追求人类指定的固定目标。我们无法完全正确地指定目标,也无法预测或预防追求错误目标的超能力机器在全球范围内会造成的伤害。我们已经看到了一些例子,比如社交媒体算法利用人们的偏好来优化点击量,这给民主体制带来了灾难性的后果。