集微网报道(文/李映)江湖格局之变,只在须臾之间。在ChatGPT火出圈之后,世界已然不是之前的旧模样了。
ChatGPT一马当先,国内各大互联网和人工智能公司争先恐后宣布进军大模型领域,各类名头响亮的创业团队也纷至沓来,一场AI大模型“百模大战”已然席卷而来。作为AI大模型训练的底层架构基石,GPU的价格也随之水涨船高。
有代理商透露,英伟达的A100价格从2022年12月份开始上涨,截至2023年4月上半月,5个月价格累计涨幅达到37.5%;A800价格从2022年12月份开始上涨,截至2023年4月上半月,5个月价格累计涨幅达20.0%。且交货周期也被拉长,之前拿货周期大约为一个月左右,现在基本都得三个月,甚至更长。
(相关资料图)
尽管综合来看,英伟达GPU涨价也有美国禁令发酵的原因,但在AI大模型的热浪之下,GPU涨价将持续多久?国内GPU厂商能否借这一浪潮乘势而出?或许这是比涨价更值得探究的话题。
涨价的三重节点
英伟达的A100及H100凭借强劲的性能,在市场上占据绝对垄断地位。但在2022年10月,美国商务部祭出高端GPU的出口限令,为此英伟达推出了替代型号专供中国市场。
A100的替代型号是A800,在已有A100的基础上将NVLink高速互连总线的带宽从600GB/s降低到400GB/s,其他基本不变。前不久英伟达还发布了特供版的H800,作为其旗舰芯片H100的替代版,通过“裁剪”掉部分性能,这款H800可合法出口。
对于一直在持续的涨价,或许还要拉长时间轴来做一“切片”。
国内一位GPU业内人士任然(化名)表示这有三大节点:A100从去年六月份英伟达就已经宣布上调了,幅度在20%左右,渠道商在加紧囤货。之后美国祭出禁令之后,这些厂商下的订单有些没来得及交付,只能转向A800,导致库存了一批相对低成本的A800。但由于库存不足,反映到市场上就是“涨声一片”了。
任然进一步分析说,英伟达A800涨价在ChatGPT火爆之前就已出现,但反映到市场则有一定的滞后性,赶上ChatGPT爆火这一时间点,因而更放大了这一现象。
“英伟达GPU涨价与ChatGPT有一定的关联性,且交货周期也受到了连带的影响,导致市场上出现了众多炒卡的行为。”任然指出。
但这一切还只是前奏,对于AI大模型带动的GPU“沸腾”热潮,这一涨价潮或许仍将持续发酵。
涨价仍将持续
随着ChatGPT带来的AI热潮持续升温,行业内布局AI大模型的老将新兵争相涌现,规模越发庞大,对于AI服务器和算力芯片的增量需求也在显著提升。
据IDC数据预测2025年全球AI服务器市场规模将达317.9亿美元,年复合增长率为19%。集微咨询(JW Insights)指出,AI类芯片将在2022年达到352亿美元的市场规模,其中GPGPU的市场规模将接近60%;在使用AI加速的数据中心服务器中,GPGPU的占比将在2025年接近50%。
而作为AI大模型必不可少的A100和H100,在全民皆“AIGC”的时代,价格更是走向了“三级跳”,尤其是英伟达的新旗舰级GPU H100,在海外电商平台价格在4月中旬就已炒到了超过4万美元。
在国内市场,英伟达的中国特供版A800和H800 GPU也面临“哄抢”,据悉A800已涨至约8-8.5万元,并且很难买到,而A100的价格已从原本的6万元左右一路涨至12.5万元,涨幅惊人。更雪上加霜的是,新订单可能要到12月才能交付。
在这一情形之下,众多客户也不得不“勒紧腰带”。据透露,国内可用于训练AI大模型的A100大约有4万-5万个,供应相当吃紧,一些云服务厂商已严格限制内部使用这些先进芯片,以将其保留至需要强力运算的任务。
业内人士分析,AI大模型训练成本之一是基础算力,大概需要384-3000块左右的A100才能基本满足要求,如果价格持续上涨,无论是对于互联网和AI大厂,还是创业新贵,要追加的投入可能远超当初。
而GPU的需求量仍在不断放大。OpenAI预计,AI大模型要持续取得突破,所需要消耗的计算资源每3~4个月就要翻一倍,资金也需要通过指数级增长获得匹配。在算力方面,GPT-3.5在微软Azure AI超算基础设施(由V100GPU组成的高带宽集群)上进行训练,总算力消耗约 3640PF-days(即每秒一千万亿次计算、运行3640天)。
此外,为提供更多的AI火力,云服务商正在组建GPU大军。在刚刚举办的Google I/O 开发者大会上,谷歌宣布了一款拥有26000H100 Hopper GPU的AI超级计算机——A3。在这一示范作用下,未来将有众多云厂商旋即跟进。
显然,在未来相当长一段时间内,英伟达GPU的价格或仍将继续上涨。
国产GPU分羹
虽然英伟达是目前AI浪潮中的最大受益者,但一方面众多的行业巨头也在AI硬件上奋起直追,另一方面国内的GPU以及AI等厂商也在持续加码,市场格局仍将在流变中重塑。
据不完全统计,除微软、谷歌、亚马逊、英特尔等在类GPU芯片领域持续投入之外,国内GPU厂商也在加快迭代和应用步伐。
在多年的持续耕耘之下,国内众多GPU厂商已经推出了多款优秀的GPU,可满足深度学习、计算机视觉等AI计算需求。但相对来说,无论是算力还是生态,与英伟达等巨头相比仍有相当的差距。
但现在的差距并不代表未来的“鸿沟”,国内GPU厂商在面临巨大的挑战和难得的机遇面前,坚持砥砺前行、长期作战,坚持供应链协同攻关,未来仍有大概率的胜算改写格局。
此外,除立足于架构创新、生态构建和应用落地之外,中美科技博弈环境下的供应链问题也是每一家国内GPU厂商的必修课。
一位GPU创始人指出,除了算法创新以外,国内还缺乏基础算力的支持,算力业已成为国家综合实力的象征。由于国内的芯片制造受到制约,不能完全依靠先进工艺来达到目标,因而要独辟蹊径,如果能够使用成熟的14nm甚至28nm的工艺就能达到A100的性能,或有望进一步突破瓶颈。
还要看到的是,目前ChatGPT更着重于处理文本,对算力的要求较低。未来则将增强音视频等方面的处理能力,也将需要更高的算力,不仅将持续提升GPU的价值空间,还将催生AI音视频、视觉芯片的新机会。抓住AI大模型的机遇,路仍在脚下。
标签: