人工智能、机器学习、神经网络和深度学习的关系究竟是什么?
扫描二维码
随时随地手机看文章
最近很长的一段时间,人工智能的热度都维持在一定的高度。但是大家在关注或研究人工智能领域的时候,总是会遇到这样的几个关键词:深度学习、机器学习、神经网络。那他们之间到底是什么样的关系呢?
先说人工智能,人工智能是在1956年一个叫达特茅斯会议上提出的。更准确的说是1956年学者们在会议上将他们确定为人工智能,其实关于其具体的一些研究,早就已经开始了。
所以人工智能已经是有60多年历史的一个领域。为什么最近几年人工智能才逐渐进入大众视野呢?其实,这几年的人工智能浪潮已经是人工智能的第三次热度高涨,并远远超过了之前的热度。第一次和第二次浪潮都消失在历史的长河里,他们在那个年代都遇到了自己的问题,比如第一次是因为在完美的完成了一些人工智能项目后,遇到更复杂的需求时却被发现当时的人工智能技术,并没有能力将其解决,导致了世界主力研究的国家中断了人工智能的研究经费。第一次发展因为缺钱而中止了,本质上还是技术遇到了瓶颈。第二次浪潮时候,因为专家系统为很多企业带来非常大的作用和效益,人工智能又准备大力发展的时候,被第四代计算机的强有力发展挤占的没有空间,几乎绝大多数的资金和人力都投入到了第四代计算机的发展行列中去。
除了外部因素的影响,人工智能本身也存在一些问题,在早期最核心的两个问题就是数据和算力,因为当时其实有非常不错的拟合算法模型,但是却被戴上了过拟合的帽子,就是模型维度多,但是却没有详尽和足量数据支持。
其实在1956年后,人工智能发展的速度非常快,解决了业内很多的问题,让当时的科学家以为,以当时的发展速度,机器可能在20年左右达到人类的水平。现在看,当时的科学巨头还是过度乐观了,直到60年后的今天,我们还是在弱人工智能领域摸爬滚打。
图 1人工智能产业发展历程
讲的有点远了,回到今天的主题,人工智能,机器学习,神经网络,深度学习之间的关系。
人工智能这个概念可能是个大坑,把很多人都弄迷糊了。简单点解释,人工智能就是实现人类可以做的事情,这是目的。其中有很多细节,其中最核心,我们可以理解为人的大脑的部分,就是机器学习。
图 2人工智能关系图
饮鹿网(innov100)产业研究员认为机器学习(machine learning)可以简单的理解为实现人工智能的核心方法。他不是一个单一的方法,而是众多算法的合集。没错,人工智能的核心就是由各种算法作为支撑的。不过,现在的机器学习更容易理解成,简单的半人工智能算法,比如我们在逛某宝的时候,总是会有栏目推荐各种商品,或者你浏览了某些商品后,你会发现首页连默认搜索词都变成了你浏览的商品的关键词,这里面就融合了基于机器学习的推荐算法,而且在后台还为用户画像,更加准确的预测你想要购买的商品。其实这样的技术实现背后还是有一定问题的,比如你的隐私,如果你被预测的很准确,那你还有什么隐私可言,你所有的操作都可能悄悄的出卖了你。
神经网络(NeuralNetwork)简单说就是机器学习众多算法中的一类,设计的时候就是模仿人脑的处理方式,希望其可以按人类大脑的逻辑运行(尽管目前来说对人脑的研究仍不够透彻)。神经网络已经有很多年的历史,但现在基本很少听到了。饮鹿网(innov100)产业研究员认为神经网络可以简单的分为单层,双层,以及多层网络。神经网络在之前有非常多的问题,层数无法深入过多,有太多的参数需要调节,样本数据量过小等问题。总之,其之前是一门并不被看好的技术。直到2006年,Hinton在《Science》和相关期刊上发表了论文,首次提出了“深度信念网络”的概念。
深度学习(DeepLearning)其实算是神经网络的延伸,从概念被提出,逐渐的在人工智能领域大显身手。尤其是在2012年,其在图像识别领域获得惊人的成绩。和神经网络一样,深度学习也是一个算法的集合,只不过这里的算法都是基于多层神经网络的新的算法。他是一种新的算法和结构,新的网络结构中最著名的就是CNN,它解决了传统较深的网络参数太多,很难训练的问题,使用了“局部感受野”和“权植共享”的概念,大大减少了网络参数的数量。关键是这种结构确实很符合视觉类任务在人脑上的工作原理。新的方法就多了:新的激活函数:ReLU,新的权重初始化方法(逐层初始化,XAVIER等),新的损失函数,新的防止过拟合方法(Dropout, BN等)。这些方面主要都是为了解决传统的多层神经网络的一些不足:梯度消失,过拟合等。
由于其解决了早期人工智能的一些遗留问题,在大数据和大算力的加持下,使得人工智能重新进入到大众的视野。并在视觉识别,图像识别,语音识别,棋类AI中成为核心技术。所以现在深度学习就是新的神经网络,其本质仍然是神经网络,但是又区别于旧的神经网络。另外现在基本很少在讨论神经网络了。
希望大家看完文章之后,可以理解人工智能、机器学习、神经网络和深度学习之间的关系了。另外,在此基础上继续延伸的话,还有迁移学习和强化学习,这些会在之后的文章继续探索。