上周末我在咖啡厅接了个电话,窗外正好有辆洒水车轰隆隆开过。我下意识捂住另一只耳朵,结果对方还是听不清我在说什么——这种狼狈场面,估计很多人都经历过。
降噪耳机发展了这么多年,"听得清"和"说得清"完全是两码事。传统方案是把你的声音传到云端处理,延迟高不说,隐私也悬在半空。Anker这次扔出的Thus芯片,直接把AI塞进了耳机本地的NOR闪存里,连网都不用连。
这背后的门道挺有意思。他们学的是人脑那套——记忆在哪儿,计算就在哪儿发生,不用像传统芯片那样把数据搬来搬去。闪存读取速度比NAND快一大截,功耗却只有几毫瓦,对耳机这种"螺蛳壳里做道场"的设备来说,简直是瞌睡遇到枕头。
我查了下技术细节,Clear Calls功能动用了8颗MEMS麦克风加2颗骨传导传感器。骨传导这玩意儿以前多见于运动耳机,现在被拿来当"声纹身份证"用——哪怕环境吵到面对面都听不清,它也能从骨骼振动里抠出你的原声。神经网络完全在本地跑,你的通话内容不会在任何服务器上留痕。
说实话,我对这种"端侧AI"一直有点执念。去年用过某款旗舰耳机的AI降噪,效果惊艳,但每次戴上都忍不住想:刚才那句吐槽老板的话,有没有被录进去?本地化处理把这个心结直接解了。
不过冷静下来看,Thus的真正野心可能不止于通话清晰。Anker明说了这是IoT设备的第一站,耳机只是打头阵。想象一下,以后你的智能手表、眼镜甚至门锁,都能在不联网的情况下做实时AI决策——响应快、隐私稳、还省电。这种"去中心化"的算力部署,说不定比某些大张旗鼓的云端大模型更先渗透进日常生活。
5月21日的发布会我打算蹲一波,不为别的,就想看看"芯片界的最强广告"到底能强到什么程度。毕竟能让通话清晰如面对面这件事,听起来像科幻小说里的桥段,但技术有时候就是比小说更不讲道理。
