英伟达核弹GPU发布:4nm工艺还有144核Grace CPU
扫描二维码
随时随地手机看文章
3月23日消息,当地时间22日,图形处理器大厂英伟达(NVIDIA)的2022年度GTC大会正式开幕,英伟达CEO黄仁勋在主题演讲环节正式发布针对数据中心的新一代Hopper架构的GPU芯片NVIDIA H100,同时发布的还有基于新核心的加速计算卡“H100”、AI计算系统“DGX H100”。此外还有英伟达自研的服务器处理器Grace CPU。全新Hopper架构H100 GPU:台积电4nm工艺,800亿个晶体管。
据介绍,NVIDIA H100采用了台积电最新的4nm工艺,而且是定制版,CoWoS 2.5D晶圆级封装,单芯片设计,集成多达800亿个晶体管(比上一代A100多了260亿个),号称世界上最先进的芯片。H100完整版有8组GPC(图形处理器集群)、72组TPC(纹理处理器集群)、144组SM(流式多处理器单元),而每组SM有128个FP32 CUDA核心,总计18432个核心。显存支持六颗HBM3或者HBM2e,控制器是12组512-bit,总计位宽6144-bit。Tensor张量核心来到第四代,共有576个,另有60MB二级缓存。扩展互连支持PCIe 5.0、NVLink第四代,后者带宽提升至900GB/s,七倍于PCIe 5.0,相比A100也多了一半。整卡对外总带宽4.9TB/s。性能方面,FP64/FP32 60TFlops(每秒60万亿次),FP16 2000TFlops(每秒2000万亿次),TF32 1000TFlops(每秒1000万亿次),都三倍于A100,FP8 4000TFlops(每秒4000万亿次),六倍于A100。内核数量则飙到了前所未有的16896个,达到上一代A100卡的2.5倍。浮点计算和张量核心运算能力也随之翻了至少3倍,比如FP32就达到了达到60万亿次/秒。不过它的功耗也达到了惊人的700W。英伟达强调,基于全新Hopper 架构的H100 GPU 为加速大规模AI 及高效能运算树立了新标准,并带来六项突破性创新。NVIDIA 正与顶尖的高效能运算、超级运算、超大规模与云端客户就 Grace CPU 超级芯片展开合作。Grace CPU 超级芯片与 Grace Hopper 超级芯片预计将于 2023 年上半年上市。
NVIDIA公司(纳斯达克代码:NVDA)是全球可编程图形处理技术领袖。与ATI(后被AMD收购)齐名,专注于打造能够增强个人和专业计算平台的人机交互体验的产品。公司的图形和通信处理器拥有广泛的市场,已被多种多样的计算平台采用,包括个人数字媒体PC、商用PC、专业工作站、数字内容创建系统、笔记本电脑、军用导航系统和视频游戏控制台等。NVIDIA全球雇员数量超过4000人。全球各地众多OEM厂商、显卡制造商、系统制造商、消费类电子产品公司都选择NVIDIA的处理器作为其娱乐和商用解决方案的核心组件。在PC应用领域(例如制造、科研、电子商务、娱乐和教育等),NVIDIA公司获奖不断的图形处理器可以提供出色的性能和鲜锐的视觉效果。其媒体和通信处理器能够执行宽带连接和通信应用中要求十分苛刻的多媒体处理任务,并在音频应用能力方面取得突破。NVIDIA产品和技术的基础是NVIDIA ForceWare,这是一种综合性软件套件,能够实现业内领先的图形、音频、视频、通信、存储和安全功能。NVIDIA ForceWare可以提高采用NVIDIA GeForce图形芯片和NVIDIA nForce平台解决方案的各类台式和移动PC的工作效率、稳定性和功能。
基于CPU、GPU两大新品,英伟达在数据中心的计算架构得以完整呈现。目前,在服务器CPU领域,市场仍为英特尔、AMD的x86新品所支配。而黄仁勋表示,Grace CPU面向高性能计算细分市场,如科学计算、数据分析等。在云计算、企业级计算、边缘计算、工作站、个人电脑领域仍以现有CPU为主。发布会上,黄仁勋还提出基于Hopper架构GPU和Grace CPU的“AI工厂”构想,并称为数据中心的变革方向:企业以工业化规模提高数据中心AI算力,持续提炼数据,进行训练和完善AI模型,实现AI能力大规模输出。
在近日的GTC大会,黄仁勋称Grace 进展飞速,有望明年供货。不止于此,老黄将“搭积木”技术继续应用在了Grace技术上。通过Grace与Hopper连接,英伟达打造了单一超级芯片模组Grace-Hopper.黄仁勋称Grace-Hopper 的关键驱动技术之一是内存一致性芯片之间的 NVLink 互连,每个链路的速度达 900 GB/s.Grace CPU 也可以是由两个通过芯片之间的 NVLink 连接、保证一致性的 CPU 芯片组成的超级芯片,可拥有144个CPU核心,内存带宽高达 1 TB/s。