什么是算力?算力上云与崛起中的科技样本
扫描二维码
随时随地手机看文章
人们总是用 " 计量单位 " 来形容对一件事物的苛刻追求。比如,芯片制造工艺从微米(µ m)缩小到纳米(nm);高精地图的精度从分米进化到毫米级;而汽车芯片的算力也由个位数放大到十位、百位甚至上千 TOPS。
今年 9 月份,英伟达、高通先后披露了旗下高阶智驾 SoC 芯片 Thor 和 Snapdragon Ride Flex。前者单颗算力可达 2000TOPS,后者通过加速器的扩展形式也能提供平级算力水平。
再上个月,地平线也公布了旗下产品路线图,超过 1000TOPS 的征程 6 预计明年推出。三款 SoC 有着一个明显共同点,都支持智驾和座舱的跨区域融合。
对比当前 SoC 的算力水平,英伟达 Orin X 单颗算力 254TOPS,地平线征程 5 的算力是 128TOPS,Mobileye EyeQ5 则是 24TOPS。
芯片算力向 " 千 " 越级,似乎成了发展自动驾驶乃至无人汽车的必然趋势。
21世纪,算力正在像水、电一样成为基础设施,是数字经济发展中的核心动能。在这场技术创新的角逐赛中,中国已经拿出了数一数二的成绩:基础算力规模排名全球第二,智能算力方面全球优势突出。
围绕这个新世纪的技术革命,一场大幕早已拉开。
这几年,全民网购鲜少宕机,大型游戏不再卡顿,自动驾驶和机器人甚至得以逐步落地,背后都离不开一项能力的进步——算力。
算力,可以简单地理解为计算能力(Computer Power)。
原始时代,人们使用口算、心算等无工具辅助的计算方式,大脑就相当于一个算力引擎。后来,结绳计算、算盘等辅助计算工具的应用,让人们的计算能力进一步向前。
1946年,世界上第一台数字式电子计算机ENIAC诞生,标志着算力计算第一次步入电子时代。不过,由于当时的技术还不够发达,它由18000多个电子管组成,占地面积有几间教室那么大,每秒钟只可进行5000次计算。
直到半导体芯片技术的出现,算力有了新的承载物。英特尔创始人之一戈登·摩尔曾经针对半导体创新提出过一个理论,即芯片中集成的晶体管数量大约每24个月翻一番,同时价格下降为之前的一半。后来,这个周期被缩短至18个月。
这一定律被用来揭示信息技术进步的速度。很长一段时间内,依托于摩尔定律,计算机的计算能力以可预见的速度进步着。
就如人们所看到的,芯片制程工艺的进步,让计算机越造越小、越来越轻薄,算力也越来越强。如今,一台顶配的笔记本电脑,每秒运算次数已达到两亿五千万次到三亿五千万次。
迈入电子信息化时代后,数据呈指数级爆发,智能化与数字化的需求如大浪般袭来。
整个社会都在迎接强烈的算力需要。网购、追剧、打游戏,甚至是打车、吃饭,生活中的方方面面都需要算力的支撑。不仅如此,在工业制造、智慧金融、智慧医疗、智慧城市等领域,随着行业的数字化程度逐步提高,算力需求开始急速攀升。
当然,不同的需求背后,所需要的算力类型也有所不同。
按照规模,算力可分为基础算力(基于CPU芯片)、智能算力(基于GPU和NPU芯片)和超算算力。简单来说,满足网购、打游戏这类基础需求,基础算力就能够完成;智能算力,主要用于人工智能的训练和推理计算,常见如语音、图像和视频的处理;超算算力,通俗理解即超级计算机所提供的算力,一般用于行星模拟、基因分析等高科技研究领域。
人工智能的核心要素主要是算力、算法和数据。故而在具体应用中,普遍使用AI芯片进行计算,也就是GPU。随着人工智能、自动驾驶等超级应用的持续发展,我国的算力结构也发生了一定变化。其中,智能算力的增长规模远超通用算力。据中国信通院预测,到2023年,智能算力在总算力中的比重将超过70%,发挥核心拉动作用。
管理咨询公司罗兰贝格也提到,从2018年到2030年,自动驾驶对算力的需求将增加390倍,智慧工厂需求将增长110倍,主要国家人均算力需求将从今天的不足500 GFLOPS(Giga Floating-point Operations Per Second,即每秒10亿次的浮点运算数),增加20倍,到2035年将达到10000 GFLOPS。
数据、算力、算法是人工智能发展的三要素,也被誉为数字经济时代发展的三驾马车。这其中,数据是生产资料,海量优质数据是驱动算法持续演进的基础养料;算法是生产关系,是处理数据信息的规则与方式;算力是生产力,体验为数据处理与算法训练的速度与规模。非结构化数据激增及算法模型的日益庞大与复杂带动算力需求飞速增长,算力已成为人工智能产业化进一步发展的关键。
AI 算力,顾名思义,就是支撑 AI 的计算能力。此处的计算不是简单的加减乘除,而是对世界万物的计算,是万物互联、人工智能之下的高度复杂、无所不在的计算。
不同于传统算力,AI 算力为了支撑 AI 模型的开发、训练和推理,对并行处理能力的要求特别高,也因此需要专门的 AI 芯片和框架。
大数据 " 引爆 " 算力需求
随着 5G、物联网等新兴技术的发展,数据量正在以更加难以计量的速度爆发,据 IDC 公布的《数据时代 2025》显示,从 2016 年到 2025 年全球总数据量将会增长 10 倍,达到 163ZB。面对如此庞大的数据量,模型计算将变得更加复杂,对算力的需求也在不断提高。
这一现状,不断驱动着人工智能算力的增加。
据 Open AI 的一份报告显示,从 2012 到 2019 年,人工智能训练集增长将近 30 万倍,每 3.43 个月翻一番,比摩尔定律快 25000 倍。但是,如果没有足够的算力支撑,就会有大把的数据被浪费掉,算法也不能进入到 AI 产业的生产力阶段。另据华为《智能世界 2030》报告显示,预计 2030 年全球通用算力将增长 10 倍到 3.3ZFLOPS,人工智能算力将增长 500 倍超过 100ZFLOPS。
我们看到,一方面,计算技术与产业正在催生 AI 计算迅猛发展;但另一方面,人工智能在训练、验证、部署等阶段往往面临应用场景多元化、数据巨量化带来的诸多挑战。这要求算力在支持大规模部署的同时,要满足高并发、高弹性、高精度等不同计算需求,持续为不同的人工智能负载,高效地提供计算力。
因此,为了进行大数据挖掘和人工智能分析,满足应用化需求,算力的提升成为必然。