当前位置:首页 > 新基建 > 新基建
[导读]Cerebras 展示了其第二代晶圆级引擎的功能,宣布它创造了有史以来在单个设备上训练的最大 AI 模型的记录。 首次在单台设备上训练了具有 200 亿个参数的自然语言处理网络 GPT-NeoX 20B。这就是为什么这很重要。

Cerebras 展示了其第二代晶圆级引擎的功能,宣布它创造了有史以来在单个设备上训练的最大 AI 模型的记录。

首次在单台设备上训练了具有 200 亿个参数的自然语言处理网络 GPT-NeoX 20B。这就是为什么这很重要。

为什么我们需要训练这么大的模型?

一种新型的神经网络,变压器,正在接管。如今,Transformer 主要用于自然语言处理 (NLP),其注意力机制可以帮助发现句子中单词之间的关系,但它们正在扩展到其他 AI 应用程序,包括视觉。变压器越大,精度越高。语言模型现在通常有数十亿个参数,并且它们正在迅速增长,没有任何放缓的迹象。

使用大型变压器的一个关键领域是在医学研究中的应用,例如表观基因组学,它们被用来模拟基因的“语言”——DNA序列。

为什么这在单个设备上完成很重要?

今天的大型模型大多使用多处理器系统进行训练,通常是 GPU。Cerebras 表示,它的客户发现在数百个处理器上划分巨大的模型是一个耗时的过程,这对于每个模型和每个特定的多处理器系统都是独一无二的,基于模型的属性和每个处理器的特性(即,什么它是一种处理器,它有多少内存)和 I/O 网络的特性。这项工作不能移植到其他模型或系统。

通常对于多处理器系统,有三种类型的并行在起作用:

· 如果模型适合单个处理器,则可以将其复制到其他处理器上,并且每个处理器都使用数据子集进行训练——这称为数据并行性,相对简单。

· 如果模型不适合一个处理器,则模型可以在处理器之间拆分,每个处理器上运行一个或多个层——这称为流水线模型并行性。但是,这些层需要按顺序运行,因此用户必须手动评估每层需要多少内存和 I/O,以确保没有瓶颈。它比数据并行更复杂。

· 如果模型的一层太大以至于它无法容纳在一个处理器上,它甚至会更加复杂。张量模型并行性必须用于跨处理器拆分层,增加了另一个维度的复杂性,这也会对内存和 I/O 带宽造成压力。

大型模型,例如 Cerebras 公告中的 GPT-NeoX 20B,需要所有三种类型的并行性进行训练。

Cerebras 的 CS-2 避免了模型并行化的需要,部分原因在于其处理器的庞大尺寸——它实际上是一个巨大的850,000 核处理器,位于单个晶圆大小的芯片上,足以容纳最大的网络层——部分原因是 Cerebras从计算中分离出内存。可以添加更多内存来支持更多参数,而无需添加更多计算,从而保持系统计算部分的架构相同。

无需使用并行性,无需花费时间和资源手动划分模型以在多处理器系统上运行。此外,如果没有流程的定制部分,模型变得可移植。在具有多个参数的 GPT 模型之间进行更改只需更改一个文件中的四个变量。类似地,在 GPT-J 和 GPT-Neo 之间切换也只需要几次按键。据 Cerebras 称,这可以节省数月的工程时间。

对更广泛的行业有何影响?

NLP 模型已经变得如此庞大,以至于在实践中,只有少数公司拥有足够的资源——无论是计算成本还是工程时间——来训练它们。

Cerebras 希望通过在云中提供其 CS-2 系统,以及帮助客户减少所需的工程时间和资源,它可以为更多的公司提供大规模的模型培训,即使是那些没有庞大系统工程团队的公司. 这包括加速科学和医学研究以及 NLP。

单个 CS-2 可以训练具有数千亿甚至数万亿参数的模型,因此对于未来的巨大网络以及今天的网络来说,都有足够的空间。

CEREBRAS 有真实世界的例子吗?

生物制药公司艾伯维(AbbVie)正在使用 CS-2 进行生物医学 NLP 转换器培训,这为公司的翻译服务提供支持,使庞大的生物医学文献库可跨 180 种语言进行搜索。

“我们在编程和训练 BERT LARGE模型时遇到的一个常见挑战是在足够长的时间内提供足够的 GPU 集群资源,”生物制药公司 AbbVie 的人工智能负责人 Brian Martin 在一份声明中说。“CS-2 系统将提供可缓解大部分挑战的挂钟改进,同时提供更简单的编程模型,通过使我们的团队能够更快地迭代和测试更多想法来加速我们的交付。”

葛兰素史克公司使用第一代 Cerebras 系统 CS-1 进行表观基因组学研究。该系统启用了使用数据集训练网络,否则该数据集会非常大。

GSK 人工智能和机器学习高级副总裁 Kim Branson 在一份声明中说:“葛兰素史克通过其基因组和基因研究生成了极其庞大的数据集,这些数据集需要新的设备来进行机器学习。” “Cerebras CS-2 是一个关键组件,它允许 GSK 使用以前无法达到的规模和大小的生物数据集训练语言模型。这些基础模型构成了我们许多人工智能系统的基础,并在发现转化药物方面发挥着至关重要的作用。”

其他 Cerebras 用户包括 TotalEnergies,他们使用 CS-2 加速电池、生物燃料、风流、钻井和 CO 2储存的模拟;国家能源技术实验室使用 CS-2 加速基于物理的计算流体动力学;阿贡国家实验室一直在使用 CS-1 进行 Covid-19 研究和抗癌药物;还有更多的例子。


声明:该篇文章为本站原创,未经授权不予转载,侵权必究。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭