ViWANT
13 4 月 2026, 周一

确认偏误如何影响AI判断

当AI系统输出的内容恰好符合用户的预期时,人们往往会产生一种错觉——这个AI真懂我。但仔细想想,这种“懂”可能恰恰是问题所在。

确认偏误是一种认知偏差,指人们倾向于搜寻、记住支持自己观点的信息,同时忽视或贬低与之矛盾的证据。这种偏差不仅存在于人类思维中,在AI系统的运行机制里同样根深蒂固。

AI的“确认偏误”首先体现在训练数据的层面。互联网上的文本数据本身就带有偏见——某些观点、某些立场、某些叙事方式天然占据优势地位。模型在学习这些数据时,不可避免地继承了这些倾向。当用户提出问题时,AI更容易从海量训练数据中提取“主流”答案,而这些答案往往反映的是多数人的既有认知,而非客观真相。

更深层的问题在于人机交互的反馈循环。用户倾向于点击和相信符合自己观点的内容,AI系统通过这种正向反馈不断强化特定类型的输出。几次交互下来,AI输出的内容会越来越精准地“投其所好”,用户则在这种舒适区中越陷越深。这种机制与人类确认偏误的形成路径几乎一模一样——区别在于,AI的“偏见”来自算法,而人类的偏见来自认知。

实际场景中,这种现象的表现往往很隐蔽。比如在讨论某个争议性话题时,AI会引用支持某一方的论据,却对另一方的核心论点轻描淡写;或者在提供建议时,默认用户的决策前提是正确的,只在技术细节上做优化。表面上看,AI在“帮忙”,实际上它在系统性地强化用户的思维定势。

要打破这种循环,需要保持一种有意识的怀疑态度。向AI提问时,尝试加入对立面的关键词;让它列出不同立场的论据;甚至可以直接问它:“你刚才的回答有没有忽略什么重要信息?”这种元认知式的提问方式,虽然不能完全消除确认偏误的影响,至少能在AI与用户之间撕开一道缝隙,让不同的声音有机会进来。