当前位置:首页 > 新基建 > 新基建
[导读]分布式 AI 的分层方法支持增量训练或“联合学习”,从而实现持续改进。“不断地重新训练和更新神经网络。你必须有一些非易失性内存或一些内存,你可以将这些更新推送到所有这些设备中——无论大小。” 例如,联想的 ThinkEdge 包括一个支持人工智能的边缘设备。它使用高性能 DDR4 DRAM 和容量 SSD 来支持人工智能和机器学习模型,例如用于跟踪仓库和物流操作或自动化制造过程的计算机视觉。

分布式 AI 的分层方法支持增量训练或“联合学习”,从而实现持续改进。“不断地重新训练和更新神经网络。你必须有一些非易失性内存或一些内存,你可以将这些更新推送到所有这些设备中——无论大小。”

例如,联想的 ThinkEdge 包括一个支持人工智能的边缘设备。它使用高性能 DDR4 DRAM 和容量 SSD 来支持人工智能和机器学习模型,例如用于跟踪仓库和物流操作或自动化制造过程的计算机视觉。

对于工业机器人和自动驾驶汽车等汽车用例,可能需要更多的内存带宽和容量,但不一定是最重要的。

Macronix 技术营销总监 Jim Yastic 表示,人工智能的炒作周期类似于物联网,现在物联网在汽车、工业和安全环境中发挥着重要作用。IDC 预测,到 2023 年,70% 的物联网部署将包括用于自主或边缘决策的人工智能,其中计算机视觉是增长最快的边缘人工智能应用之一。

Yastic 表示,分布式的人工智能方法是有意义的,因为在数据中心做任何事情都是昂贵的。正如物联网设备在本地具有更多处理能力一样,更多的人工智能操作正在移出数据中心,同时确定需要将哪些内容发送回中央云。

在工业和汽车领域,边缘 AI 的内存需求由各种类型的传感器决定,这些传感器都执行某种级别的过滤,并通过将选定的数据发送回中心位置来帮助创建更好的 ML 模型。然后下载新模型。

Yastic 说,这种方法是必要的,因为汽车等行业根本无法在短时间内处理 TB 级数据。即使有 5G 的可用性,本地系统也必须快速做出一些明智的决定,而不需要来回传输大量数据。在自动驾驶汽车中,5G 支持 ADAS 和 AI 功能。

Yastic 表示,不同设备必须做出决策的速度决定了 AI 系统架构,因此也决定了以性能和密度衡量的内存需求。“根据应用的不同,它可能只是一个”嵌入式多媒体卡。

内存菜单

用于汽车和工业 AI 的其他存储设备可能包括通用闪存、NAND 闪存 SSD、DRAM 甚至 SRAM。

在许多这些生态系统中,尤其是在汽车领域,没有改变的是可靠性、安全性和安保性。这就是为什么现有内存仍将是首选,即使对于 AI 任务也是如此。就像今天的汽车是车轮上的服务器一样,它们也是嵌入式端点的集合,包括传感器和带有板载内存的摄像头,它们的使用寿命与车辆一样长。

Yastic 预测,高可靠性和长寿命是 NOR 闪存将在汽车 AI 中长期发挥作用的原因,它可以在恶劣的环境中运行十年或更长时间。它还因其快速启动能力而受到汽车制造商的青睐。例如,Macronix 的 OctaFlash SPI NOR 闪存提供快速启动和快速接口,可以到达自动驾驶汽车的大多数端点。

Yastic 指出,这也归结为成本:NOR 闪存已经存在了很长时间,因此价格点已经下降。

所有内存技术都不可避免地增加了密度和性能,同时以更小的外形尺寸以更低的成本消耗更少的功率。数据中心仍然需要高性能内存来处理 AI 和 ML 工作负载,但商品内存也有机会满足分布式系统中的许多 AI 需求。

根据 Rambus 研究员 Steve Woo 的说法,从长远来看,计算的历史可以预测 AI 系统内存的未来。“今天的超级计算机就是明天的智能手机,”他指出。

一些需要高端硬件的早期 AI 模型现在可以使用更主流的内存来处理。“现在它更容易获得,部分原因是半导体行业已经为小型化做出了贡献,并且不得不降低硬件成本。”

今天的 HBM2 很快就会变成一些 DDR DIMM 和其他通过 Compute Express Link (CXL)连接的内存。“您将能够达到今天看起来遥不可及的相同性能水平,”Woo 说。

Woo 将人工智能的主流化比作智能手机长达十年的演变。“有各种各样的开发人员想出了使用这项技术的新方法,”他指出。随着规模的扩大,市场发展到随着数量的增加,开发出服务于低功耗市场的专用存储器。Woo 期望 AI 记忆具有相同的协同作用。“成本将继续下降。专业组件现在将是合理的,因为您可以为它实现 [投资回报]。”

Woo 补充说,这些进步也与互联网的架构变化相一致。“数据移动正在成为瓶颈。” 将数据移动到云端进行处理会消耗过多的能源,因此在本地进行处理可以降低成本并提高性能,同时消耗更少的电力。

Woo 还看到了推理和计算任务以及端点类型来确定随着 AI 的进步哪些存储器最适合。无论如何,热特性和功率限制将是一个因素。“你可以看到取舍。” 他说,如果只是推理,那么片上 SRAM 可能就足够了。

Woo 说,随着人工智能变得无处不在并分布在不同的平台上,最终对记忆至关重要的是神经网络的精简,例如,使它们成为主流人工智能平台。

Rambus 研究员补充说,在可预见的未来,基于人工智能的应用程序将需要超级计算,但摩尔定律缩放和其他内存进步将有助于使数据更接近计算资源。任何新的内存类型面临的挑战是展示证明替换经过尝试和真实的东西的好处。

“行业中真正需要的内存数量有限。在很多情况下,有很多现任者似乎足够优秀,”Woo 说。


声明:该篇文章为本站原创,未经授权不予转载,侵权必究。
关闭