说实话,看到苹果因为Siri跳票被集体诉讼赔了18亿,我第一反应居然不是惊讶,而是"终于有人告了"。
去年WWDC那场发布会我熬夜看的,库克站在台上说新Siri能"真正理解你的上下文",我当时激动得差点把咖啡洒了。想象一下:你刚跟朋友聊完周末去爬山,转头问Siri"那地方天气怎么样",它就知道你说的是哪座山——这谁不想要啊?结果iPhone 16都用到电池健康度掉95%了,这个功能还在"即将推出"的灰色按钮里躺着。
苹果到底卡在哪了?
我翻了不少爆料和分析师报告,发现问题可能比"技术没准备好"更尴尬。
第一是隐私执念的反噬。 苹果一直吹"设备端AI",意思是你的数据不出手机。听起来很美对吧?但大模型这玩意儿,参数规模直接决定智商。谷歌Gemini、OpenAI的GPT-4,哪个不是在云端用海量数据喂出来的?苹果想把一个"聪明"的Siri塞进你的iPhone芯片里,还要保证不偷看你相册——这相当于让一只仓鼠拉卡车,不是训练方法的问题,是物理极限。
第二是内部团队的内耗。 有前员工在匿名论坛爆料,Siri团队这些年像块夹心饼干:机器学习派和传统软件派互相撕,管理层又总想"等等看能不能用自研模型"。结果就是2024年该上的功能,推到2025年,再推到2026年,最后发现自研的实在打不过,还是得跪下来找谷歌借Gemini。
那个"懂你"的Siri,可能从一开始就是个饼
最让我无语的是,苹果其实早该知道做不出来。
2024年WWDC演示的那个"新Siri"视频,后来被扒出来是预录的。不是现场实机操作,是剪辑过的理想状态。我当时看就觉得流畅得不像真的——果然,是假的。这种操作放在别家叫"PPT造车",放在苹果叫"愿景展示",中文互联网还给它起了个名字叫"果式跳票",听起来还挺萌的,但18亿赔偿金可一点都不萌。
更讽刺的是赔偿方案:美国用户只要"证明自己期待过新版Siri"就能拿钱。这标准低得离谱,相当于说"只要你在2024年听过苹果发布会"就算数。苹果宁愿花18亿封口,也不肯在和解协议里认一句"我们吹过头了"。这很苹果——钱可以给,面子不能丢。
2026年真的会有吗?
现在说法是iOS 27要整合Gemini,终于放弃全自研了。但我有个悲观的预感:就算上线了,那个"懂你"的程度可能也会打折扣。毕竟云端模型要调API、要花钱,苹果会不会为了省成本,把"深度个性化"阉割成"稍微聪明点的搜索框"?
我手里的iPhone 16 Pro还在等那个灰色的按钮变蓝。有时候半夜解锁手机,会下意识长按侧边键,然后对着Siri说一些复杂指令——它依然用那种礼貌而愚蠢的语气回答:"我在网上找到了这些内容。"
两年了,我学会了不再期待。
