NHTSA对特斯拉FSD启动的这次调查,覆盖范围高达320万辆,几乎囊括了2016年之后生产的每一辆搭载HW3/HW4硬件的Model 3、Model Y、Model S和Model X。这个数字本身就说明问题——它不是针对某个批次、某次OTA更新,而是对整套纯视觉技术路线的系统性审视。
事故报告里的共同点
翻看NHTSA缺陷调查办公室发布的几份ODI Resume,能发现一个反复出现的模式:车辆在低对比度、强逆光或特定角度的侧向光照条件下,对高反射率的平面物体——比如侧翻的白色货柜车、停在应急车道的消防车——出现系统性感知失败。摄像头捕捉到了光子,算法却没能把这些光子还原成一个需要紧急避让的固体障碍物。
这跟传统毫米波雷达的失效机制完全不同。雷达可能会把静止物体当成路牌过滤掉,但摄像头的问题是“看见了却看不懂”。而激光雷达的点云数据,哪怕物体纹理全无,至少还能靠几何轮廓判断出“那里有个占位的东西”。马斯克坚持砍掉雷达、拒绝激光雷达,本质上是在赌神经网络能通过海量数据学到人类那种“脑补”能力。调查数据表明,这个赌局目前还没赢。
影子模式的双刃剑
特斯拉引以为傲的数据引擎,恰恰是理解这次调查的关键。每一辆在路上跑的特斯拉,都在以“影子模式”运行FSD算法——系统不控车,但会不断对比自己的决策和人类司机的实际操作,把差异片段回传。
这套机制的可怕之处在于,它能以每天数百万公里的速度收集边缘场景。但问题也出在这里:影子模式收集到的“正确驾驶行为”,本身就是人类司机在视觉条件下的反应,而人类司机同样会在强逆光下撞上静止障碍物。用一个有缺陷的参考答案去训练模型,天花板从一开始就被锁死了。
NHTSA的调查工程师显然意识到了这一点。他们在多份信息请求函中,反复要求特斯拉提供“驾驶员接管前2秒至接管后5秒”的完整传感器数据——他们想弄清楚的,不是FSD能不能开,而是在那些人类都反应不过来的瞬间,系统到底看到了什么、想了什么、为什么没动作。
监管逻辑的转向
这次调查还有一个容易被忽略的细节:它启动的时间点,刚好卡在特斯拉大规模推送FSD V12端到端版本之后。V12用单一神经网络取代了此前30多万行C++规控代码,这意味着一套黑箱模型直接负责从感知到方向盘扭矩的全部链条。传统汽车功能安全标准ISO 26262对“可解释性”的要求,在端到端模型面前几乎完全失效。
美国国家公路交通安全管理局过去几十年的监管工具,都是围绕确定性系统设计的——刹车踏板位移量、转向角速度、代码分支覆盖率,这些都能追溯、能复现。面对一个连开发团队自己都无法逐帧解释决策逻辑的神经网络,监管机构手里那套旧工具箱基本报废。
这才是调查背后真正棘手的地方。不是FSD出了多少事故,而是出了事故之后,没人能确切说出“为什么会这样”。当安全监管失去了因果链条,整个认证体系的地基就开始松动。特斯拉在得州超级工厂里造Cybercab的速度可以慢慢爬坡,但监管体系的重构,恐怕连图纸都还没画好。
