美国国防部对Anthropic和xAI的态度,表面上看起来确实很分裂:一边把Anthropic列入“供应链风险企业”,一边却对xAI的Grok模型敞开大门。这种“双标”背后,其实藏着几个非常现实的考量。
安全审查的“双标”逻辑
国防部对AI企业的评估,核心指标从来不是“谁的技术更牛”,而是“谁更可控”。Anthropic的麻烦在于,它的创始团队来自OpenAI,而OpenAI与美国政府的关系一直很微妙。更重要的是,Anthropic在AI安全理念上走的是“超级对齐”路线,主张对模型行为进行极度严格的约束——这种“理想主义”在军方看来反而成了隐患:你越强调安全,越可能在某些敏感场景下“过度拒绝”,导致系统不可靠。
xAI则完全不同。马斯克虽然经常口无遮拦,但他的SpaceX已经是美国军方最核心的发射服务商之一,X平台(原推特)的通信基础设施也与国防部有深度绑定。换句话说,xAI的Grok模型从一开始就生长在“军方信得过”的生态里。国防部对xAI的信任,更多是对马斯克整个商业帝国(尤其是SpaceX)的信任转移。
算力合作背后的“投名状”
Anthropic突然与SpaceX达成算力合作,这件事本身就很有深意。要知道,Colossus 1超算基地原本是xAI训练Grok的大本营,马斯克把它“让”给Anthropic,本质上是在帮后者“洗白”——通过绑定SpaceX的算力基础设施,Anthropic等于向国防部递了一份投名状:你看,我现在和你们最信任的承包商深度合作了。
但国防部显然不吃这套。在它们看来,Anthropic的起诉行为(旧金山和华盛顿两地同时起诉)已经暴露了这家公司的“对抗性”姿态。而xAI呢?马斯克虽然也经常起诉政府,但他起诉的是推特、是媒体,从来不会直接跟五角大楼翻脸。这种“选择性硬刚”的智慧,恰恰是国防部最看重的。
太空算力:一个更大的局
双方合作中最引人遐想的“太空数据中心”构想,反而可能让国防部更加警惕。想象一下:如果Anthropic真的在太空部署了几个吉瓦级的算力设施,那意味着它拥有了完全不受美国本土监管的算力节点。对于国防部来说,这简直是噩梦——你怎么确保一个漂浮在轨道上的AI系统不会被敌国渗透?相比之下,xAI的算力全在地面,SpaceX的星链虽然也在太空,但那是通信链路,不是算力节点,国防部可以通过地面网关进行完全管控。
说白了,国防部对Anthropic的“冷”,本质上是对“不可控算力”的恐惧;而对xAI的“热”,则是对“可管控生态”的依赖。这种态度差异,与其说是技术路线之争,不如说是权力游戏里的站队选择。
