• 循环神经网络 RNN发展史概述

    循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learning)算法之一,其中双向循环神经网络(Bidirectional RNN, Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。

  • 什么是自编码器?对机器学习有什么影响?

    AutoEncoder的基本思想是利用神经网络来做无监督学习,就是把样本的输入同时作为神经网络的输入和输出。本质上是希望学习到输入样本的表示(encoding)。早期AutoEncoder的研究主要是数据过于稀疏、数据高维导致计算复杂度高。比较早用神经网络做AutoEncoder的可以追溯到80年代的BPNN和MLP以及当时Hinton推崇的RBM。后来到了2000年以后还坚持在做的只剩下Hinton的RBM了。从2000年以后,随着神经网络的快速兴起,AutoEncoder也得到快速发展,基本上有几条线:稀疏AutoEncoder、噪音容忍AutoEncoder、卷积AutoEncoder、变分AutoEncoder。最新的进展是结合对抗思想的对抗AutoEncoder。

  • 简述卷积神经网络发展进程

    卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。1980年,一个日本科学家福岛邦彦(Kunihiko Fukushima)提出了一个包含卷积层、池化层的神经网络结构。在这个基础上,Yann Lecun将BP算法应用到这个神经网络结构的训练上,就形成了当代卷积神经网络的雏形。

  • 医疗器械的应用场景将不断丰富和完善

    当前家用医疗器械生产企业正积极布局”人工智能+”家用医疗器械,利用人工智能技术及大数据来开发家用智能健康机器人,全方位对家庭各成员进行实时健康管理。未来,伴随算法和数据的进一步发展,资本的注入、利好政策以及相关监管机制和配套法律的进一步落实与完善,“人工智能+”家用医疗器械的应用场景将不断丰富和完善,产品落地迭代速度也将进一步加快。

  • 医疗器械背后与医工结合有密不可分的关

    在我国创新医疗器械快速发展的同时,如何提高国产率以及突破关键技术零部件的研发成为关键,而背后与医工结合有密不可分的关系。由于创新医疗器械临床使用尚未成熟、使用量暂时难以预估,尚难以实施带量方式,并将根据临床使用特征、市场竞争格局和中选企业数量等因素合理确定带量比例,人工智能在集中带量采购之外留出一定市场为创新产品开拓市场提供空间。

  • 什么是深度学习

    深度学习是近10年机器学习领域发展最快的一个分支,由于其重要性,三位教授(Geoffrey Hinton、Yann Lecun、Yoshua Bengio)因此同获图灵奖。深度学习模型的发展可以追溯到1958年的感知机(Perceptron)。1943年神经网络就已经出现雏形(源自NeuroScience),1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路等非线性问题,以及当时存在计算能力不足以处理大型神经网络的问题。于是整个神经网络的研究进入停滞期。

  • 可解释性的标准是什么?

    有一些特定的标准可用于分类模型解释方法。Christoph Molnar在2018年“可解释的机器学习,制作黑箱模型可解释指南”中提到了一个很好的指南。

  • 为什么需要可解释性机器学习?

    在工业界中,数据科学或机器学习的主要焦点是更偏“应用”地解决复杂的现实世界至关重要的问题,而不是理论上有效地应用这些模型于正确的数据。机器学习模型本身由算法组成,该算法试图从数据中学习潜在模式和关系,而无需硬编码固定规则。因此,解释模型如何对业务起作用总是会带来一系列挑战。有一些领域的行业,特别是在保险或银行等金融领域,数据科学家通常最终不得不使用更传统的机器学习模型(线性或基于树的)。原因是模型可解释性对于企业解释模型所采取的每个决策非常重要。

  • 车联网新增长点和增长极其重要的定位

    随着5G、人工智能等数字技术的迭代演进,车联网的发展已驶入快车道。不久前,国家发展和改革委员会在《关于数字经济发展情况的报告》中指出,推动车联网部署应用,加快交通、能源、民生、文化、环境等领域基础设施数字化改造,赋予了车联网新增长点和增长极其重要的定位。

  • 什么是可解释性机器学习

    可解释性是指人类能够理解决策原因的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向业务方解释模型的内部机制,对模型结果进行解释。比如基金推荐模型,需要解释:为何为这个用户推荐某支基金。

  • 自动机器学习(AutoML)几个重要方向汇总

    学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,后者成为超参数。比如,支持向量机里面的C,Kernal,game;朴素贝叶斯里面的alpha等。

  • 什么是自动机器学习

    自动机器学习(AutoML)旨在通过让一些通用步骤(如数据预处理、模型选择和调整超参数)自动化,来简化机器学习中生成模型的过程。AutoML是指尽量不通过人来设定超参数,而是使用某种学习机制,来调节这些超参数。这些学习机制包括传统的贝叶斯优化,进化算法,还有比较新的强化学习。当我们提起AutoML时,我们更多地是说自动化数据准备(即数据的预处理,数据的生成和选择)和模型训练(模型选择和超参数调优)。这个过程的每一步都有非常多的选项,根据我们遇到的问题,需要设定各种不同的选项。

  • 什么是对抗机器学习?为何要对抗机器学习?

    对抗机器学习是一个机器学习与计算机安全的交叉领域。对抗机器学习旨在给恶意环境下的机器学习技术提供安全保障。由于机器学习技术一般研究的是同一个或较为稳定的数据分布,当部署到现实中的时候,由于恶意用户的存在,这种假设并不一定成立。比如研究人员发现,一些精心设计的对抗样本(adversarial example)可以使机器学习模型不能成功地输出正确的结果。针对模型的攻击问题,我们主要分为两大类,就是从训练阶段和推理(inference)阶段来进行讨论。

  • 机器视觉:深度学习解决零售或教育方面的问题

    在过去的五年或十年里,随着深度学习的出现,我们对这个问题有了不同的方法。它更多的是数据驱动,而不是代码或算法设计驱动。 深度学习的想法是,我们有一种算法,它是一种学习机器。因此,我们拥有这种通用的学习结构,而不是在算法中规定步骤来解决特定问题。我们所做的是,我们展示了很多例子。这是一个戴着面具的人;这是一个没有面具的人。这里有10,000个不同情况和方向的戴着口罩的人;这里有 10,000 人没有戴口罩。

    端侧AI
    2023-01-23
    机器视觉 AI
  • 机器视觉:机器学习时代,变得更多地与数据相关

    在最初的几十年里,我大量参与了音频和语音处理等领域的数字信号处理。因此,如果我们倒回 20 或 30 年,想想数字信号处理和数字音频,那时候的技术处于类似的状态。它有效,但它很新,而且它并不是真正可以现成部署的。假设一家公司生产自动售货机,他们想为自动售货机添加语音命令,他们很可能不得不聘请一些 DSP 和语音专家。而且很可能他们必须真正进行一些研究和原创技术发明才能为他们的应用程序创建一个独特的解决方案。

    端侧AI
    2023-01-23
    机器视觉 AI
发布文章