Ceva-NeuPro-Nano荣获亚洲金选奖年度产品奖
扫描二维码
随时随地手机看文章
· Ceva-NeuPro-Nano™获得年度最佳IP/处理器产品奖,延续公司智能边缘IP的领先地位
· Ceva-NeuPro-Nano NPU在小空间内提供超低功耗和高性能的优化平衡,可在消费、工业和通用AIoT产品中高效执行嵌入式AI工作负载。
帮助智能边缘设备更可靠、更高效地连接、感知和推断数据的全球领先半导体产品和软件IP授权许可厂商Ceva公司(纳斯达克股票代码:CEVA)宣布Ceva-NeuPro-Nano NPU在近期于中国台北举办的著名亚洲金选奖(EE Awards Asia)中荣获年度最佳IP/处理器产品奖。
获奖的 Ceva-NeuPro-Nano NPU 可为半导体企业和OEM厂商提供所需的功率、性能和成本效率,以便将嵌入式人工智能模型集成到其用于消费、工业和通用 AIoT 产品的SoC 中。嵌入式人工智能模型是直接集成到硬件设备中,并在设备上运行的人工智能算法和系统,无需依赖云端处理。Ceva-NeuPro-Nano NPU解决了嵌入式人工智能方面的性能难题,有望实现无处不在并且经济实用的人工智能,广泛应用于消费和工业物联网应用中的语音、视觉、预测性维护和健康传感等各种用例。
Ceva首席战略官Iri Trashanski表示:“赢得亚洲金选奖之年度最佳IP/处理器奖,证明了NeuPro-Nano NPU具有创新性和卓越性,它为功耗受限的设备带来了经济有效的人工智能处理技术。连接、感知和推断是塑造更智能、更高效之未来的三大关键支柱,我们很自豪能够凭借无与伦比的 IP 产品组合在这三种应用案例中一马当先。”
Ceva-NeuPro-Nano 嵌入式人工智能 NPU 架构完全可编程,可高效执行神经网络、特征提取、控制代码和 DSP 代码,并支持最先进的机器学习数据类型和运算符,包括原生变换器计算、稀疏性加速和快速量化。与现有的采用基于 AI 加速器架构的 CPU 或 DSP 组合的嵌入式 AI 工作负载处理器解决方案相比,这种经过优化的自给自足单核架构使 Ceva-NeuPro-Nano NPU 能够提供更高的能效、更小的硅片占用空间以及优秀性能。此外,Ceva-NetSqueeze AI 压缩技术可直接处理压缩模型权重,而无需中间的解压缩阶段,使得Ceva-NeuPro-Nano NPU的内存占用减少了80%,解决了目前阻碍AIoT处理器广泛应用的关键瓶颈问题。
这款NPU 随附完整的人工智能 SDK Ceva-NeuPro Studio,这是统一的人工智能堆栈,是适用于整个Ceva-NeuPro NPU 系列的通用工具,支持开放式人工智能框架,包括微控制器 LiteRT(前身为微控制器 TensorFlow Lite)和 microTVM。
亚洲金选奖旨在表彰亚洲电子行业中备受推崇的最佳产品、企业和个人。来自全球的专业技术人士组成评审团,评选出入围榜单后,再由中国台湾和亚洲的《EE Times》和《EDN》专业媒体读者群投票选出优胜者。