AI Flood 将芯片推向边缘,第一部分
扫描二维码
随时随地手机看文章
本文从多个角度深入探讨了在嵌入式系统中注入本地化 AI 的业务和技术。
圣何塞——列出从事某种形式人工智能的半导体公司很容易——几乎所有这些公司都是如此。机器学习的广泛潜力正在吸引几乎所有芯片供应商探索这一新兴技术,尤其是在网络边缘的推理处理方面。
“似乎每个星期,我都会在这个领域遇到一家新公司,有时是我从未听说过的中国公司,”Real World Technologies 微处理器分析师大卫坎特说。
深度神经网络本质上是一种新的计算方式。您无需编写程序以在吐出数据的处理器上运行,而是通过算法模型流式传输数据,该算法模型过滤掉所谓的推理处理的结果。
这种方法在 2012 年 ImageNet 竞赛后开始受到关注,当时一些算法在识别图片时提供了比人类更好的结果。计算机视觉是第一个受到巨大推动的领域。
从那时起,亚马逊、谷歌和 Facebook 等网络巨头开始将深度学习应用于视频、语音和翻译。去年,超过 3 亿部智能手机出货了某种形式的神经网络功能;今年将有 800,000 个 AI 加速器运往数据中心;现在每天有 7 亿人使用某种形式的智能个人助理,例如亚马逊 Echo 或苹果的 Siri。
据说已经有多达 50 家公司在销售或准备某种形式的硅 AI 加速器。有些是 SoC 的 IP 块,有些是芯片,还有一些是系统。
它们的共同目标是被设计成从数据中心服务器到智能手机、智能扬声器和许多其他产品的所有产品。东芝的研究人员最近发表了一篇关于神经网络加速器模块的论文,该模块旨在嵌入传感器中,这表明该技术可能会变得多么普遍。
核心技术还在不断发展。每天发表多达 50 篇关于 AI 的技术论文,“而且还在上升——这是一个令人兴奋的领域,”RISC 的资深联合开发者、谷歌张量处理单元工作的大卫帕特森说。
分析师 Kanter 指出,机器学习涉及新的系统架构。例如,明天的监控摄像头可能会决定在其 CMOS 传感器旁边放置深度学习加速器,并在模拟域中处理原始数据,然后再将其转换为数字位并发送到图像处理器,他说。
“从理论上讲,您可以使用更好的信息。我们知道神经网络通常具有非直观的算法,因此我们需要考虑神经网络可以看到的数字处理可能丢弃的内容——这令人兴奋。”
Imec 研究所正在机器学习架构方面进行自己的实验,并在使用单位精度的加速器上开展工作。它旨在推动关于人工智能任务的理想精度水平的辩论。
“有趣的是,我们在哪里进行推理处理没有达成共识,”坎特说。“很可能,我们最终将结合边缘和数据中心推理处理以及一些垂直特定的位置,如自动驾驶汽车。”
如果您使用正确的软件,许多应用程序可能不需要任何特殊的芯片。经验丰富的 DSP 分析师兼嵌入式视觉联盟创始人 Jeff Bier 表示,现有的芯片,如高通的 Snapdragon,可以“在人工智能工作上提供惊人的性能,如果你知道自己在做什么” 。