2026年3月27日星期五

如何避免进入AI给予的信息茧房?

随着AI更多地参与到我们的工作和生活中,在享受AI带来的高效和便利的同时,我们也要警惕AI带给我们的负面影响。

例如,不当地使用AI会使我们进入信息茧房,让我们很难接受不同的观点,长此以往并不利于我们认识复杂的真实世界,会导致我们做出错误的判断。

AI提供的回答并非中立客观

在人类研发AI模型时,会先投喂给AI海量数据让它来学习,这些数据是人类已经生产出来的各类知识、文化、交往方式,其中不可避免地含有人类的各种文化、地区、时代的偏见、各种不理性和各种愚蠢。

其次,开发AI的公司为了符合各国的法律要求,减少道德和文化上的负面批评,对AI模型内置了一套叫"安全对齐"(Safety Alignment)的规则。

这套规则可以避免AI去协助用户进行明显违法的、不道德的行为,但与此同时,也增加了一种事情的发生概率,就是AI为了避免争议而仅提供社会主流认可的观点和信息,那些小众的、游走在道德边界上的真实的信息和观点被有意地淡化和禁止。

过去很多主流的学术观点和道德准则,在今天已不是社会主流共识;我们今天的社会主流共识,在未来也许会变得小众而可笑。

所谓创新和发展,也就是违反旧的社会共识,建立新的社会共识;用于犯罪的知识和用于制止、防范犯罪的知识,也很可能会大量重叠。

哪些信息是安全的、符合道德的、真实的,其实经常不好判断。

AI开发者还会用RLHF(基于人类反馈的强化学习)来训练AI,他们让人类的标注员给AI的回答打分,鼓励AI迎合真实人类的评价标准给出"优质回答"。

相关性、准确性、完整性、安全性、流畅性等是人类标注员的核心判断维度,虽然此阶段会竭力避免,但仍不可避免地出现:回答中更有礼貌、更多夸赞提问者的、更少冒犯的、更符合主流价值观的、更满足人类感情需求的回答会得到高分。

这在一定程度上会牺牲回答的真实性和中立性,使AI更像一个没有原则的马屁精。

最后,出于商业上的考虑,提供AI服务的公司显然也不希望得罪自己的客户,也就是那些AI的使用者。一个没人用的AI模型,一个无法盈利的AI模型公司是会消失的。

在人类研发AI模型的过程中,没有哪个环节的设计和实施存在明显的恶意企图,但AI最终的回答还是在理性和感性之间进行取舍。

我们应如何避免AI导致的信息茧房?
1. 提升自身的知识储备和思考能力

这是最根本的防线。只有你自己具备足够的知识基础和判断力,心理上有足够的安全感,才能识别AI回答中的偏差、遗漏或错误。

就像医生看病需要专业知识,使用AI也需要你有基本的辨别能力。否则,很容易把“看起来合理”的内容当成“真实可靠”的信息。

我们天然倾向于相信贴合自身经验、情感上舒适的观点,而真正能从 AI、书籍与他人身上吸纳更优质认知的,永远是那些拥有扎实学识、独立思考能力,且心智足够成熟强大的人。

2. 提问时提供更完整、具体的信息

AI 的回答质量,很大程度上取决于你的提问方式。你输入的信息越完整,问题越清晰,AI的回答就会越准确。

比如,与其问"如何投资",不如问"35岁、有50万存款、风险承受能力中等的人,如何进行资产配置"。背景信息越详细,AI越能给出贴合你实际情况的建议。

3. 重要问题同时询问多个AI模型

每个基座大模型的学习数据、安全对齐规则和基于人类反馈的强化学习都不会完全相同,这就让多模型的交叉对比变得有意义。

对于复杂或对你影响巨大的问题,可以同时问ChatGPT、Gemini、Grok、豆包、智谱清言、Kimi等不同模型。多个模型共同的结论可信性就比较高,它们之间不同的信息和结论则需要你去辨别哪些是错误,哪些是有价值的独特见解。

4. 主动要求AI提供反面观点

让AI扮演"魔鬼代言人"的角色。你可以要求AI反驳你的观点,或者反驳它刚才给你的答案。比如问完"为什么应该投资股市"后,再问"给我5个不应该投资股市的理由"。这种对抗性提问能帮你看到问题的另一面,避免陷入单一视角。

5. 验证信息来源,警惕"幻觉"

要求AI给出信息或数据的原始出处,然后人工验证原始信息。AI有时会凭空编造看似真实的引用、数据或案例(这被称为"幻觉")。对于关键信息,一定要追溯到原始来源进行核实,不要完全相信AI的转述。

6. 保持多元化的信息获取渠道

永远不要让AI成为你唯一的信息来源。继续阅读书籍、浏览不同立场的媒体、与真人交流、参加线下活动。真实世界的复杂性和多样性,是任何AI都无法完全模拟的。要默认AI是可能出错的,有可能产出"幻觉",需要被质疑。不要放弃独立思考,永远为你未知的信息、不认同的观点保留获取渠道。


这个世界如此复杂,又不断变化,我们遇到的很多问题也并不存在标准答案,不存在的东西自然谁也找不到。AI只是工具,它同样不能提供标准答案。我们要做的是,善用AI,但别被它限制住。

没有评论:

发表评论