ViWANT
6 5 月 2026, 周三

AMD能否在AI芯片领域撼动英伟达地位?

AMD的MI300X系列在纸面参数上确实亮眼,FP8浮点算力、HBM3内存带宽这些硬指标,已经能和英伟达的H100掰手腕了。但芯片这行当,从来不是跑个分就能定胜负的。

软件生态这道护城河,比想象中深得多

英伟达真正的壁垒不在硬件,而在CUDA。过去十五年,全球超过400万开发者在这个平台上写代码、调模型、做优化,攒下了海量的算子库和工具链。这东西就像操作系统,一旦用顺手了,迁移成本高得离谱。

AMD的ROCm开源生态这几年进步不小,PyTorch、TensorFlow这些主流框架的支持也在逐步跟上。可问题是,大厂的AI工程师们嘴上喊着要“去英伟达化”,真让他们把生产环境从CUDA切到ROCm上,光是调试兼容性问题就够喝一壶的。

说白了,这不是“能不能用”的问题,是“好不好用”的问题。

云厂商的算盘打得很精

谷歌、微软、亚马逊这些超大规模买家,确实在疯狂寻找第二供应商。没人愿意把鸡蛋放在一个篮子里,何况英伟达H100的交货周期一度拉长到52周,价格还死贵。

但这里有个微妙的地方:云厂商采购AMD芯片,更多是压价筹码,而不是替代方案。他们需要让英伟达知道“我不是非你不可”,但内部核心训练集群,大概率还是N卡为主,AMD的卡更多用在推理场景或者二线业务上。

一位硅谷云架构师私下说得很直白:“我们买MI300X,是为了让黄仁勋接电话时语气客气一点。”

真正变数在2026年之后

AMD的机会窗口,其实不在当下,而在下一个代际。当AI训练从“千卡集群”进化到“万卡集群”,互联带宽和功耗的瓶颈会越来越突出。AMD的Infinity Fabric互联技术和chiplet架构,在大规模扩展性上有天然优势。

不过,英伟达也没闲着。Blackwell架构的NVLink 5和Grace CPU已经在为超大规模集群铺路了。这场仗,远没到亮底牌的时候。