突破封锁把握时代机遇,解读中国AI芯片厂商的破局之道
扫描二维码
随时随地手机看文章
自ChatGPT发布之后,AI开始出圈,我们都切实感受到了AI的能力。近年来,AI一方面在模型能力上不断加速演进,在处理更复杂的语言任务方面变得更加有效;另一方面在应用领域逐步拓展,帮助专业人员在各自的垂直领域内提高生产效率。不仅于此,最近更是出现了“主权AI”的概念,这进一步上升到了国家安全的层次,各国也开始更加关注自己的AI基础设施能力。
而对于我国而言,挑战和机遇并存。我们有着丰富的应用场景和用户数据,能够实现AI率先落地实践;但同时由于地域政治摩擦、芯片禁令的限制,迫使我们更需要构建自己的AI端到端生态,拥有底层AI芯片的能力。
近日,Gartner针对“中国企业突破人工智能芯片限制”这一话题召开了记者分享活动。 Gartner研究副总裁盛陵海(Roger Sheng)进行了精彩的分享。
AI时代到来,美国对中国的高性能AI芯片限制不断加码
为了在即将到来的AI时代保持技术主导权,近年来美国对中国AI领域的限制措施逐步升级,从最初的黑名单、禁令到现在的全面禁运和技术封锁,涉及到多个层面,尤其是高性能计算和芯片制造领域。
【芯片禁运和限制】
美国政府早在几年前就开始对中国的高科技企业实施限制,特别是针对芯片领域的出口禁令。2020年,美国出台了针对人工智能芯片的禁令,直接影响了中国企业对高性能计算资源的获取。为了应对这些限制,英伟达推出了专门为中国市场设计的 A800 和 H800 GPU,这些产品在原有 A100 和 H100 基础上进行了性能削减以符合出口规定。例如,A800 和 H800 的通信带宽被限制在 400 GB/s 以下,但它们仍保留了强大的计算能力,能够满足大多数 AI 和高性能计算需求。
然而,这些措施显然不足以满足美国的限制意图。2022年,美国进一步降低了对高性能计算芯片的限制阈值,将禁令适用的性能上限设定为每秒 300 万亿次浮点运算(300 TFLOPS),几乎等同于 A100 的水平。去年下半年,禁令范围再次收紧,不仅限制总体计算性能,还开始关注单位芯片面积的性能密度,超过每平方毫米 370 GFLOPS 的芯片也被列入受限范围。这些严格的限制措施,显著打击了中国在超级计算和 AI 训练领域的进步能力。
【制造工艺和供应链的封锁】
除了芯片本身的禁运,美国还在芯片制造工艺和供应链上进行严厉封锁。高端芯片的制造依赖于先进的工艺和设备,例如 TSMC 等公司提供的 14nm 及以下的技术,这些技术对提升芯片的性能和降低能耗至关重要。美国的禁令禁止国际先进制造工艺向中国出口,这使得中国在追赶全球芯片制造技术水平上面临巨大的挑战。
同时,美国还禁止其公民参与中国的先进制造业设备相关领域,这直接打击了中国吸引顶尖人才和技术的能力。例如,最近的一个案例显示,中微公司的一位高管为了专注于中国的半导体设备制造,选择了出售一部分股票,以支付美国的离境税。这表明,即使在巨大的经济和个人压力下,中国的企业和个人仍在努力推进本土半导体制造技术的发展。
“从整体上来看,美国不断地是在‘补漏洞’,中国这边也是不断地在看有没有机会利用现有的资源打一些‘游击战’,当前是不断地‘补漏洞’和‘打游击战’的状况。”盛总分享道。
为了突破封锁,中国企业和研究机构正在积极寻找应对之策,一方面努力发展自主创新技术,另一方面积极寻求国际合作和替代方案。对于中国的芯片厂商而言,即使当下提供的替代方案并不尽如人意,但唯有政府和企业坚定地选择和支持,才能有机会获得市场实践,通过不断地技术迭代来实现追赶。
当下国内产业变局和未来端侧推理发展,给中国AI芯片厂商带来新机遇
国内企业要在被封锁的局面中构建AI基础设施,可能有三种不同的选择。第一是选择本土供应商的替代方案。尤其是对于国内大型云服务商、政府机构和国有企业而言,长期受制的局面无法改变,必须寻找国产替代方案来保证国内的基础关键民生、政务业务不会受到影响。而选择本土供应商的替代方案,存在着训练效率、性能受限和生态不完备的难题,要让当前业务尽量平滑地迁移到新的国产替代平台上,也有很多的额外工作量。
第二种选择是选择NVIDIA的降级方案,这对于互联网公司、跨国公司和中小型企业可能是一个合适的选择。优点在于平台成熟,缺点在于性能受限、价格较高。
第三种选择是通过非官方渠道来使用NVIDIA的芯片。例如直接购买市场上的整机或直接进行算力租赁等。这种方式只适用于中小型公司,缺点也很明显,就是没有官方保障和技术支持。
从长期来看,掌握AI底层芯片能力,构建本土GenAI生态系统,是我们不得不走的道路。长期的局势倒逼着我们的应用者必须要选择国产的替代方案,来构建本地化的场景和应用;而对于本土芯片供应商而言,就一定要抓住这一机遇,从芯片底层做好主流大模型的适配,为开发者提供高效的开发体验。
“不管如何的原因、怎么样的原因,现在已经走到这一步上、大势所趋吧。”盛总总结道。
在这种大变局的背景下,还有一个来自应用推动的重大机遇,中国芯片厂商必须要抓住。那就是根据Gartner推测,从2025年开始,云端的推理芯片需求将超越训练芯片需求;而从2026年开始,随着端侧的AI能力也持续推动GenAI应用增长,所以端侧的推理芯片需求也会越来越大。
从2024年OpenAI的几次服务崩溃我们可以感知到,人们对于生成式AI的使用量和频率越来越高,而随着越来越多的人会去用这个生成式AI,必然在云端上的推理诉求、对算力的需求会不断地、极速级地增加。而为了提高能效,降低云端的负载,有一部分的推理算力会迁移到端侧来运行,那么端侧AI能力将会被持续推高。
“就是设备端可以支持十亿到一百亿规模的模型,然后边缘端它支持一百亿到一千亿的这个参数规模的大模型,它都可以实际来支持一定的企业或者个人的应用。所以这个从技术上,它其实也是可行的。”盛总总结道,“边缘侧和端侧的生成式人工智能应用会从智能手机、电脑,不断地扩散、到消费物联网、智能家居,然后进一步到汽车上。”
当前市场上主要的芯片制造商如高通、联发科和英特尔等都在积极开发端侧AI芯片,而我国的AI芯片厂商要如何抓住设备端和边缘侧的GenAI机遇?盛总强调了硬件标准化的重要性,为了更好地利用生成式AI的潜力,中国的芯片制造商应该考虑合作建立一个统一的标准,从而促进AI芯片的兼容性和软件生态的发展。这样的标准化不仅有助于技术的推进,还能简化后续的软件开发和生态系统建设。
“其实对照过去的历史来看,我们现在的情况其实并不是非常糟。”盛总坦言道,“中国的大模型,其实现在也不会差到哪里去。我们还是要根据过去的这样一个历史借鉴,从‘一无所有’再到‘自主研发’,一定要有这个坚定的信心,我们才能把AI芯片这个事情、AI产业能够搞起来。”