当前位置:首页 > 芯闻号 > 美通社全球TMT
[导读]北京2024年7月2日 /美通社/ -- 6月28日,浪潮信息"元脑中国行"全国巡展杭州站顺利举行。会上,浪潮信息重磅推出基于新一代分布式存储平台AS13000G7的AIGC存储解决方案。通过加持EPAI/AIStation的资源调度能力、新一代分布式存储AS...

北京2024年7月2日 /美通社/ -- 6月28日,浪潮信息"元脑中国行"全国巡展杭州站顺利举行。会上,浪潮信息重磅推出基于新一代分布式存储平台AS13000G7的AIGC存储解决方案。通过加持EPAI/AIStation的资源调度能力、新一代分布式存储AS13000G7自身产品优势,新方案从容应对大模型应用对存储性能、容量以及数据管理等方面的苛刻要求。同时,浪潮信息尝试性提出GPU计算集群算力与存储集群聚合带宽的推荐配比,实现检测点数据60秒内写入和读取恢复,提高大模型训练效率。

助力AI产业革新!浪潮信息重磅推出AIGC存储解决方案


大模型时代,数据基础设施挑战升级

随着数字经济的蓬勃发展,AI技术正逐渐成为推动企业业务变革和创新的重要动力,大模型已经成为驱动数字经济深度创新、引领企业业务变革、加速形成新质生产力的重要动能。

会上,存储产品线副总经理刘希猛表示,随着大模型参数量和数据量的极速膨胀,多源异构数据的传、用、管、存,正在成为制约生成式AI落地的瓶颈之一,在AI大模型数据归集、训练、数据归档与管理等阶段,面临着数据归集时间长、模型训练效率低、数据管理复杂度高等针对数据基础设施的新挑战,用户亟需构建支持多协议、高带宽、低延迟、数据高效流转的大模型存储底座。

作为率先在业界提出分布式融合存储的厂商,浪潮信息聚焦行业客户的大模型落地需求与核心痛点,打造基于NVMe SSD高效适配和优化的分布式全闪存储AS13000G7-N系列。依托自研分布式文件系统构建了新一代数据加速引擎DataTurbo,在缓存优化、空间均衡、缩短GPU与存储读取路径等方面进行了全面升级,提供TB级带宽、千万级IOPS、EB容量,满足大模型存储在性能和容量方面的要求。

剑指AIGC主战场,打造面向大模型应用的存储解决方案

在大模型数据处理全流程中,要想使训练效率达到极致,减少不必要的资源浪费,算力和存力需要均衡配置,训练阶段的数据读写性能成为发挥存力最大作用的关键。而想要提升存储效率、降低模型训练成本,必须要在存储技术上进行创新。对此,浪潮信息推出基于AS13000G7的AIGC存储解决方案,该方案通过浪潮信息AIStation人工智能平台进行智能资源调度和深度数据管理,与EPAI"元脑企智"平台深度集成,数据在热、温、冷、冰四个存储资源池中高效流动,最大限度满足AIGC不同阶段对高性能、易管理的存储需求。首先,通过与上层EPAI/AIStation的深度定制,依托智能数据预读和智能故障处理等技术,为行业用户提供经验证的、更成熟的存储整体方案,目前已累计服务AIGC用户超100家,其中百PB级用户超10家;其次,通过全局命名空间、多协议实时互通、数据冷热分层等技术实现横向数据自由流动,提升存储效率和降低用户TCO 20%以上,方案更加简约;最后,通过AS13000G7-N系列强大的智能缓存优化、智能空间均衡和GPU直通存储等优势实现纵向数据高效访问,缩短大模型训练时间50%,方案更加高效。凭借成熟的深度定制能力、卓越的产品性能优势以及数据全生命周期管理能力,浪潮信息基于AS13000G7的AIGC存储解决方案充分满足大模型训练阶段高性能、归档阶段低成本的存储需求。

助力AI产业革新!浪潮信息重磅推出AIGC存储解决方案


算存黄金比例,加速大模型训练

倪光南院士曾提出,"对于AI智能计算中心来说,要想均衡配置存力、算力和运力,一定要注意比例相当,不能失调,才能取得最大的经济和社会效益。"为了最大限度发挥大模型潜能,解决存算比例不平衡的难题,需要制定最佳的存算比例,保障模型的高效训练。浪潮信息最新发布的AIGC存储解决方案尝试给出了模型训练时GPU算力与全闪存储性能、容量的配置推荐。

性能方面:大模型训练过程中检测点文件读写对存储系统读写性能带来巨大挑战。万亿模型需要12~13TB模型参数,写检测点需要耗费大量的时间,未经优化的存储集群一次写入检测点需要3个小时。基于对存储集群读写带宽与大模型检测点恢复时间的分析,为提高大模型的训练效率,实现检测点数据60秒以内的写入和读取恢复,前端GPU计算集群算力(单位采用每秒千万亿次浮点预算PFLOPS)与存储集群聚合带宽(单位采用每秒千亿字节也就是常说的TB/s)的推荐配比为35:1。当然,如果期望获取更低的CHK写入和恢复时间,可以继续增加集群带宽,但其收益率相对较低。

全闪容量方面:模型训练场景中,除了初始加载的训练数据集要存放在全闪池中,还有过程训练中的CHK数据要保存。随着万卡时代的到来,当出现掉卡或训练中止现象,用户通常会每隔一段时间就保存一次Check point数据,可以用来恢复训练或用于模型评估和推理。经过一年多的实践,建议大模型用户2~4小时做一次Checkpoint,检测点数据保存两周时间,实现存储集群容量的合理利用。通过模型分析,结合产品特点,便可推算出全闪热存储池的存储配置要求。当然,用户需求还会涉及到用于收集原始数据、准备原始数据的温存储池,用于归档的冷数据存储池。这些温冷池的容量一般在热存储池容量的10-20倍左右,达百PB级。

助力AI产业革新!浪潮信息重磅推出AIGC存储解决方案


"元脑中国行"杭州站现场吸引了来自天目山实验室、网易伏羲、英特尔等300余位专家学者、产业领袖、行业客户,现场围绕生成式人工智能、Al for Science、大模型的AIGC应用等行业热点话题进行分享。浪潮信息还在会上举行了"EPAI种子计划"签约仪式,名都科技、启帆信息、图灵软件、天健远见等浙江区域的10位元脑伙伴正式加入"EPAI种子计划",共同加速AI应用创新发展,推动大模型应用落地实践。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

超级智能何时能够到来?影响几何?少数大模型专制的局面,是喜是忧?人工智慧的“幻觉”,是想象力还是BUG?针对这些问题,在由芯原股份主办的“RISC-V和生成式AI论坛”的圆桌讨论环节上,我们找到了答案。

关键字: 大模型 AGI AI ASI 芯原

2024世界人工智能大会一连四日(7月4日至7日)于上海举行,主题是“以共商促共用,以善治促善智”。国务院总理李强出席开幕式并发表主旨演讲。香港工业人工智能及机械人研发中心(FLAIR)首次亮相参会,以“未来工厂”为主题...

关键字: AI 人工智能

联合国旗下世界知识产权组织(World Intellectual Property Organization,简称WIPO)不久前发布报告称,在生成式AI专利申请方面中国远超其它国家,包括美国。

关键字: 生成式AI 专利 AI

7月4日至6日,2024世界人工智能大会暨人工智能全球治理高级别会议(以下简称“大会”)于上海世博展览馆举办。作为我国矿山无人驾驶运输行业的佼佼者,易控智驾在首次参加展会的同时,正式发布全新一代露天矿无人驾驶运输解决方案...

关键字: AI 自动驾驶

为了更好地满足AI实际用例的需求,今年Arm推出了一系列先进的解决方案,包括面向消费电子设备的全新计算子系统——Arm终端计算子系统(CSS),内涵基于Arm第五代GPU架构构建的全新GPU和最新的Armv9.2 CPU...

关键字: ARM AI

7月4日消息,在2024世界人工智能大会上,图灵奖得主罗杰·瑞迪表示,AI是一个新物种,这个物种比我们人类要强大很多倍。

关键字: 图灵 AI

7月5日消息,近日,中国工程院院士、阿里云创始人王坚公开表示,美国AI人工智能发展的瓶颈是电力,这对中国来说不是问题。

关键字: AI ChatGPT 人工智能

北京——2024年7月3日 日前,Gartner®发布了2024年《云AI开发者服务魔力象限》报告1,亚马逊云科技被列为“领导者”之一,在“执行能力”上处于最高位置。这已经是亚马逊云科技连续5年位列Gartner®云AI...

关键字: AI 深度学习 基础模型

无数企业都在研究AI,突然之间数据变得极为珍贵。AWS最近公布的一份报告显示,中小企业如果在业务运营中整合了数据分析技术,那么它更有可能使用AI,更有可能超越同行。

关键字: AI大模型 AWS AI

北京2024年7月3日 /美通社/ -- 7月1日,"2024全球数字经济大会•人工智能专题论坛"在北京举办。大会发布了"北京市通用人工智能产业创新伙伴计划(第三批)"成员名单,软通动力凭借在人工智能领域的深厚积累和创新...

关键字: 人工智能 模型 AI BSP
关闭