五分钟看懂机器学习?这些图太形象了!
扫描二维码
随时随地手机看文章
机器学习火了很久了,大家对这个主题都很熟悉了,每个人都在谈论它,但少有人是真正了解它的。一些关于机器学习的文章晦涩难懂,或者云里雾里地介绍人工智能等高端科技的魔力以及未来的憧憬等。
如今通过清晰明了的图画和简洁的语言,使机器学习能够更容易地被理解。首先何为AI?AI 到底它涵盖哪些领域?其实根据判断方式不同,AI 范畴的划分也不一样。你可能会认为人工智能是个完整的知识领域,类似于生物学化学等学科,机器学习是人工智能的一部分,神经网络是机器学习的一种。
但是,难道深度学习就一定是神经网络吗?明显并不是的,因此更科学的划分可能是下图中的这种:
机器学习首先表示的是学习,即使用机器学习挖掘本身的方法,这类方法能自己学习数据特征,这里有一张完整的机器学习路线图供你参考。
按主流分类来看,机器学习主要分为四类:经典机器学习、集成方法、强化学习、神经网络和深度学习。
经典机器学习主要分为两类:监督型学习和非监督型学习。
监督学习指的是模型需要一个导师,即特征标注,这样的话机器就可以基于这些标注学习并进行进一步的分类。万事皆可分类,其中朴素贝叶斯算法得到了极其广泛的应用,曾被认为是最优雅、最实用的算法。
支持向量机是经典分类方法中最流行的一种,背后的思路也很简单,以下图为例,它试图在数据点之间画出两条距点最远的线。
回归也属于监督学习,基本上也是分类,但计算的是数字而不是类别,例如按里程计算的汽车耗油量,按时间计算交通流量,当所计算的事物是依赖于时间时,回归是非常合适的选择。
无监督学习直到90 年代才出现,由机器去选择最佳方式来分割未知特征。无监督学习之一聚类是一种没有预先定义类的分类。比如你不知道所有颜色时,把衣服按颜色分类一样。
无监督学习之二降维,人们在使用抽象的概念总是比使用零碎的特征更方便。举个例子,将所有长着长鼻子、大尾巴和三角形耳朵的狗合成一个抽象概念牧羊犬。假如我们要将这些具有特性的内容组成一个新的概念,以保持其潜在关联性,降维是个不错的选择。
无监督学习之三关联规则学习,包括分析购物车自主搭配,自动化营销策略等。现实生活中,每个大型销售商都有自己的解决方案,而当中技术水平最高的要数个性化推荐。
团结就是力量很好地表达了机器学习集成方法的基本思想。在集成方法中,训练多个弱模型,以期能组合成为一个强大的算法。一般而言集成方法主要可以分为三种:Boosting、Stacking、Bagging。
Bagging 通常是相互独立地并行学习弱学习器,并按照某种平均过程组合起来,如果所有弱学习器都是决策树,那么得到的 Bagging 就是随机森林。
Boosting 考虑的也是同质弱学习器,只不过它是分而治之,专注于部分数据,以一种高度自适应的方法顺序地学习弱学习器。大名鼎鼎的 XGBoost、LightGBM都采用的 Boosting 方法。
免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!