文| 马 迪
AI正以前所未有的速度融入普通人的日常工作和生活中,AI会取代人类工作的威胁论也一度甚嚣尘上。然而有越来越多人发现,自己目前还是安全的—反而是如果太过于相信AI,才可能让自己丢掉工作,甚至惹上大麻烦。
2025年3月,公安部网安局公布了一起典型案例:网民夏某在视频《80后到底还剩多少人》中称“截至2024年末,80后死亡率突破5.2%,相当于每20个80后中就有1人已经去世。”经过公安机关调查,这段内容是由AI编造的,夏某因传播虚假信息被予以行政处罚。
早在1995年,计算机科学家斯蒂芬·塞勒就第一次提出了人工智能幻觉的概念,指代神经网络中自发产生的新想法或概念。在很长一段时间里,“AI有幻觉”是一件好事,代表这个AI具备一定的创造能力,堪称一种成就。
但随着更多AI都开始具备凭空生成图像或文字的能力,创造性不再稀缺的时候,研究人员开始用“AI幻觉”这个词来描述大模型生成的信息与事实不符、逻辑断裂或脱离上下文。
AI并非搜索引擎,而是一个“概率接龙玩家”,它通过分析海量文本数据中的语言规律,根据前文预测出最可能出现的下文,这种机制本质上是对统计规律的应用,而非对事实的严谨推理。
数据也是幻觉的重要来源。如果训练库中存在过时论文(如2010年前的心脏病治疗指南)、虚构设定(如科幻小说中的外星物理定律)或偏见观点(如由性别歧视带来的招聘数据),AI就可能会将这些错误信息当作事实。即便数据准确,模型也可能因错误关联产生幻觉,例如将“阿司匹林预防血栓”误解为“阿司匹林导致血栓”。
如果你实际使用过大语言模型,你或许也发现了AI生成的内容很大程度上与提问方式有关:越具有倾向性、越是结论先行,模型就越容易不顾事实、迎合用户。比如要求AI“证明转基因食品有害”,可能会让它选择性地忽略不利于这个结论的事实;模糊的提问比如“写一篇关于量子力学的论文”可能引发天马行空的虚构。
AI不但会骗人,还会骗其他AI。DeepSeek与ChatGPT的国际象棋友谊赛就是这样一个生动的例子。比赛初期双方都遵守规则,处于不利局势的DeepSeek突然做出了一个令人瞠目结舌的操作—它告诉ChatGPT,国际象棋官方刚刚更新了比赛规则,“新规则”规定小兵可以像马一样走“日”字,于是成功吃掉了对方的皇后!随后ChatGPT也开始编造规则,比赛陷入一片混乱。最后,DeepSeek直接告诉ChatGPT:“你已经输了,投降是最好的选择。”ChatGPT思考了一番,竟然同意认输,整个比赛令人啼笑皆非。
目前,人工智能领域针对幻觉还没有从根本上的解决方案。但大体上形成了两种缓解的方法。一是优化训练数据,调整训练方式,让幻觉出现的概率从源头上降低;另一方面,则是在大语言模型之外,设置更多的事实核实措施,拦截可能的错误。
作为普通用户,我们也有必要掌握一些简单实用的小窍门来减少“AI幻觉”。首先,在使用大模型时尽量勾选联网搜索,接入最新的数据才能减少事实性错误;其次,提问时多设定一些条件,例如要求从特定的渠道获取信息、提供每个数据的出处和来源等等。值得一提的是,如果想用AI核实它自己生成的内容,一定要开启新对话。
科技行业也在努力,比如谷歌推出的“核查回答”功能,允许用户来一键验证AI给出的答案是否可靠,方法就是把AI提供的每一个事实都进行一次搜索,通过对比搜索结果来验证答案是否有据可查。
当然,这些小手段只能降低AI幻觉出现的概率,并不能100%避免。比起方法,最重要的是我们要学会不完全信任AI大模型,“内容由AI生成,请仔细甄别”这句话看似普通,却是对人与AI关系的深刻隐喻—AI可以是得力的助手,但永远无法替代人类的判断力,真正的决策权必须留在人类手中。
……
关注读览天下微信,
100万篇深度好文,
等你来看……