big data来袭 英特尔擘划软硬体蓝图
扫描二维码
随时随地手机看文章
巨量资料(big data)无疑是推动下一波科技业发展的关键,也让所有大厂视为必须紧抓在手中的机会。因此,当英特尔(Intel) 亚太区资料中心事业群行销专案经理Nick Knupffer上周来台举办巨量资料媒体说明会时,第一个问题就是“在这之前,还有谁参加过其他厂商举办的巨量资料活动?”
“每两天,我们产生出的资料量,便相当于自有文明以来到直到2003年的总和,”Knupffer强调了今天资料产生的速度之快,以及数量之庞大。
“今天,中国智慧城市专案中因储存产生的资料量,便高达200PB;RFID标签的销售量,会从2011年的1,200万个,成长到2021年的2,090亿个;”Knupffer指出,未来几年内,这些所谓的巨量资料,将衍生出极为庞大的商机,例如“10年内,因个人位址资料而产生的产值将高达8,000亿美元;未来几年内,美国将可因善用巨量资料,每年节省3,000亿美元的医疗保健费用。”
这股巨大的资料成长趋势,势必要求IT基础设施具备更强大的运算、储存功能,同时也意味着包含资料处理、介面和高速传输技术再革新的必要性,另外还包括可扩展性,未来因应巨量资料趋势,所有的IT架构都必须基于开放式架构平台,以确保能提供良好的成本优势,让厂商能无缝升级。
Knupffer指出了巨量资料的几个主要定义:首先是巨大的资料量(volume)──传统资料单位是GB或TB,而巨量资料则是从PB起跳;第二是快速资料处理和动态资料体系(velocity)──传统资料进行复杂的事件处理,而巨量资料则强调「即时」资料分析;第三是资料多样性(variety)──这就需要回异于过去的软体技术,包括有能力因应更多「非结构化」资料处理的创新软体及演算法。
巨量资料对硬体和软体产业都带来了巨大挑战,最大原因便在于绝大多数资料都是非结构化,而且包含许多种截然不同的格式,当然,还必须思考到资料本身的正确性──所有来自于人所输入的资料,正确性达到多少?其中有多少是虚假资料?是否有演算法能够依照所有收集到的相关资料,做出最接近真实的判断?
目前,这些问题都还悬而未决。但像英特尔这样的厂商,已经踏出了脚步。
我们可以透过更快速的CPU、储存、I/O和网路平台技术,在硬体方面建构适合巨量资料的硬体环境;接来来,我们会陆续投入创新的最佳化软体堆叠和服务,去探索最适合发展巨量资料的各式软技术,Knupffer说。他强调,英特尔投资(Intel Capital)已经针对多家发展相关技术的公司进行了投资,并积极寻求建立巨量资料生态系统。
所谓的开放平台,代表着开放软体和开放标准,以及和产业界各相关领域的厂商合作,提供更具经济效益的创新方案,在巨量资料时代共同寻找成长契机,Knupffer说。事实上,在英特尔擘划的巨量资料蓝图中,包含了从智慧建筑、智慧城市、物联网(IoT)、道路监控、医疗保健、智慧电表、工业系动化等所有一切必须运用到电脑运算和资料分析的领域,而最终结果,便是将所有这些领域串连起来。
Knupffer也指出,未来在面对巨量「非结构化」资料时,最主要的挑战并不在硬体,而在软体。因此,可「即时」分析各种不同类型非结构化资料的软体技术,是发展巨量资料处理平台的关键。但这部份,仍需要时间。这也是英特尔一直积极投资拥有相关技术公司的主因。
Knupffer并未透露太多英特尔的巨体计划,但显然,一个围绕着英特尔处理器为核心,再朝四周延伸的策略已然形成。但未来,这个要将众多跨应用领域的资料都串连起来的开放平台,会有多么「开放」──它与现今在许多嵌入式领域也占有一席之地的ARM之间的竞争和消长情况又是如何?继续观察下去,将会很有意思。
更多嵌入式资讯请关注嵌入式频道