大数据高速发展背景下,这些知识值得我们学习
扫描二维码
随时随地手机看文章
在不借助大数据平台的情况下,我们往往很难直接使用传统的分析工具,比如用Excel等数据处理和分析工具来处理海量的数据,极易发生卡顿以及需要较长的响应时间,这是由于计算机本身的计算逻辑决定的,当单台计算机的数据吞吐量上去之后,会发现计算机好像停住了好久都没反应。
当然,性能不同的电脑,所对应的这个处理能力上限是不相同的,但总言之,数据量的大是一种模糊的概念,并不是说一定多少数据才算大数据,而数据量的大使得我们常规的数据处理分析的工具和方法难以使用的情况,正是“大数据分析”和普通的“数据分析”之间的门槛,即实现技术。
作为普通人的我们,也没啥机会能处理海量数据,一般这些都是企业级的操作,那为什么刚才我还说我们可能甚至是在使用大数据呢?可以两个角度理解,一个角度是,我们在一些平台上的一些使用数据,本身是经过平台服务器的大数据分析过的,这些加工后的数据作为平台决策之用,但是用到了我们身上,我们是大数据分析结果的受用者;另一个角度是,我们有时候使用的一些处理平台,比如大数据人力资源管理平台、或者是大数据可视化平台等等,我们现在是处理方,我们做了大数据处理这么个工作,但具体的实现过程是平台调用了服务器上的集群资源,来一起完成这事,你可能只是一个发布指令的人。所以我们并不会感受到因为没基础而带来的限制。
体量(Volume)。大数据由大量数据组成,从几个TB到几个ZB。百度资料表明,其新首页导航每天需要提供的数据超过1.5PB(1PB=1024TB),这些数据如果打印出来将超过5千亿张A4纸。有资料证实,到目前为止,人类生产的所有印刷材料的数据量仅为200PB。这些数据可能会分布在许多地方,通常是在接入因特网的计算网络中。一般来说,凡是满足大数据的几个V条件的数据都会因为太大而无法被单独的计算机处理。单单这一个问题就需要一种不同的数据处理思路,这也使得并行计算技术(例如MapReduce)得以迅速崛起。
高速(Velocity)。大数据是在运动着的,通常处于很高的传输速度之下。它经常被认为是数据流,而数据流通常是很难被归档的(考虑到有限的网络存储空间,单单是高速就已经是一个巨大的问题)。这就是为什么只能收集到数据其中的某些部分。如果我们有能力收集数据的全部,长时间存储大量数据也会显得非常昂贵,所以周期性的收集数据遗弃一部分数据以节省空间,仅保留数据摘要(如平均值和方差)。这个问题在未来会显得更为严重,因为越来越多的数据正以越来越快的速度产生。数据处理遵循“1秒定律”,可从各种类型的数据中快速获得高价值的信息,这一点也是和传统的数据挖掘技术有着本质的不同。
大数据预处理技术:大数据预处理主要完成对已接收数据的抽取、清洗等操作。
抽取:因获取的数据可能具有多种结构和类型,数据抽取过程可以将这些复杂的数据转化为单一的或者便于处理的构型,以达到快速分析处理的目的。
清洗:对于大数据,并不全是有价值的,有些数据并不是我们所关心的内容,而另一些数据则是完全错误的干扰项,因此要对数据通过过滤"去噪"从而提取出有效数据。
大数据存储及管理技术:大数据存储与管理要用存储器把采集到的数据存储起来,建立相应的数据库,并进行管理和调用。要解决大数据的可存储、可表示、可处理、可靠性及有效传输等几个关键问题。
大数据分析及挖掘技术:数据分析及挖掘技术是大数据的核心技术。主要是在现有的数据上进行基于各种预测和分析的计算,从而起到预测的效果,满足一些高别数据分析的需求。数据挖掘就是从大量的、不完全的、有噪声的、模糊的、随机实际数据中,提取隐含在其中的、人们事先不知道的但又是潜在有用的信息和知识的过程。