凌晨三点的首尔板桥,SK海力士的自动化晶圆厂依然灯火通明。不是赶工,是根本无法停机——每一台TSV(硅通孔)刻蚀设备都在满负荷运转,试图填满来自英伟达、谷歌和Meta的HBM3E订单。这种用于AI芯片的堆叠式内存,正在以惊人的速度吞噬全球DRAM产能,让传统的PC和手机内存供应看起来像个余量不足的备用油箱。
HBM的"饕餮盛宴"正在改写产能版图
其实问题出在技术代差上。训练一个GPT-4级别的模型,单卡就需要80GB以上的HBM3内存,而一块AI加速器上的HBM颗粒数量是标准服务器内存条的十倍以上。更棘手的是,HBM的制造极度"浪费"——同样一片12英寸晶圆,生产HBM的良品率比标准DDR5低30%,且需要额外的TSV封装产线。这意味着,当三星把平泽厂的产能转向HBM时,实际上是在用三份原料换一份产出。
消费级市场的"无声窒息"
这种倾斜直接传导到了供应链末端。你会发现,去年还能轻松买到的64GB DDR5笔记本内存条,现在要么缺货,要么价格涨了四成。不是需求爆发了,是优先级被强制降级了——当苹果发现无法同时满足Mac Studio的256GB统一内存配置和iPhone的LPDDR5X需求时,它选择了砍掉前者。毕竟,AI数据中心的订单利润率高达40%,而消费级内存的利润薄得像纸。
工艺节点的隐形墙
更麻烦的是,DRAM的微缩已经撞上了物理极限。1α(1-alpha)工艺节点之后,电容的深宽比让刻蚀机都头疼。三大厂把仅有的极紫外光刻(EUV)机台都押注在了HBM的底层逻辑芯片上,导致标准DRAM的产能扩张几乎停滞。说白了,不是不想造,是造不出来的部分被AI"合法占用"了。
下次当你看到新款游戏本内存缩水,或者云端渲染排队时间变长时,别怪厂商吝啬——在板桥的晶圆厂里,那些本该属于你的DRAM芯片,正被叠成八层高的HBM,塞进某个训练大模型的GPU里,在黑暗中疯狂闪烁。
