AI Flood 将芯片推向边缘,第二部分
扫描二维码
随时随地手机看文章
许多公司一直在提供在现有 CPU、GPU 和 DSP 内核上运行深度学习作业的软件。Arm 甚至举办了关于在其低端 Cortex-M 内核上运行计算机视觉任务的网络研讨会,尽管它还推出了专门用于深度学习的加速器内核。
4 月,高通推出了其 QCS603 和 QCS605 芯片及相关软件,专为将 AI 功能引入物联网而量身定制。它们本质上是 Snapdragon SoC 的变体,其中一些版本支持工业用户延长使用寿命。
就英特尔而言,它一直在积极地收购具有硬件加速器的初创公司,用于推理和训练工作。它在 2016 年对 Movidius 的收购面向客户端系统,其芯片已经出现在 DJI 和安全摄像头的多架无人机中。它已经发布了多代芯片,The Linley Group 的首席分析师 Linley Gwennap 预计它将在未来几年内缩水到核心并出现在 PC 芯片组中。
Movidius 内核只是英特尔收购的几种架构之一。它于 2016 年收购了 Nervana,后者的加速器主要专注于训练神经网络,并于 2017 年收购了 Mobileye,其芯片专注于自动驾驶汽车的人工智能。
汽车领域尤其具有竞争力。英特尔的 MobileEye 正与包括宝马在内的 OEM 密切合作。许多初创公司都专注于该领域,包括 AImotive,该公司目前正在设计一种测试芯片,以在自己的车队中运行。
一些世界上最大的嵌入式处理器公司仍在追赶深度学习。
The Linley Group 的分析师 Mike Demler 表示,到目前为止,瑞萨在汽车处理器中拥有神经网络引擎,但在其他市场上没有。然而,该公司在 6 月的 VLSI 研讨会上发表了一篇关于嵌入式 AI 动态可重构加速器的论文。
在同一事件中,IBM Research 描述了一种深度学习内核,能够每瓦提供多个 tera 运算。就其本身而言,联发科讨论了使用深度学习技术的 4K 视频编码器。
到目前为止,一些主流微控制器公司尚未就他们的深度学习产品计划发表公开声明,但毫无疑问,他们的实验室已经开展了工作。例如,分析师 Demler 指出,他尚未收到 Microchip、意法半导体或德州仪器关于该主题的消息。
恩智浦在 1 月份演示了在原型智能微波炉和冰箱上运行深度学习应用程序的 i.MX SoC。FoodNet 演示展示了使用现有 GPU 块和 ARM Cortex-A 和 -M 内核的混合,这些芯片运行多达 20 个分类器并在 8 到 66 毫秒内处理推理操作。
也就是说,NXP 与许多嵌入式芯片供应商一样,希望很快与第三方加速器制造商合作。最终,它的目标是提供自己的 AI 加速器块。
QuickLogic 领先一步。它于 5 月 4 日宣布了其 Quick AI 平台,将其用于智能扬声器的 EOS S3 芯片与 Nepes Corp 的 AI 加速器芯片配对。来自两个第三方的软件有助于定制算法并在现场训练它们以用于工厂视觉系统等用途,预测性维护和无人机。
谷歌内部的 TPU明确表示,深度学习需要线性代数加速器,通常采用具有大量内存的大型乘法累加 (MAC) 阵列的形式。Gwennap 说,一些设备正在为神经网络的特定方面添加硬件,例如激活和池化。
莱迪思基于在其 FPGA 中使用两个加速器内核组合了一个产品——一个用于广泛使用的卷积神经网络,另一个用于二值化神经网络。这些芯片的功耗范围从 1 毫瓦到 1 瓦,封装尺寸小至 5.5 mm 2 ,批量价格从 1 美元到 10 美元不等。
就其本身而言,Flex Logix 在 6 月下旬宣布了其第一个 AI 加速器内核——EFLX4K。它可用于创建针对适合深度学习的 16 位和 8 位操作优化的多累加单元数组。这些阵列可以配置为提供从 441 GigaMACs/秒到 22 TeraMACs/秒的吞吐量。