AI幻觉是指大模型在生成内容时容易胡编乱造,有时甚至足以以假乱真,或者出现“AI运算偏差”,产生与现实不符的内容。
科技博主阑夕的一篇文章《DeepSeek的胡编乱造,正在淹没中文互联网》引起了广泛关注。文章指出,DeepSeek-R1生成的一篇关于国产动画电影崛起的知乎回答中充满了事实错误。例如,提到哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界,实际上参展的是追光动画出品的“哪吒重生”,且宣传片内容是一个现代都市里的赛车动作演示,并没有出现哪吒和敖丙变身的镜头。此外,关于“哪吒”的制片方给员工分成都房子、攻克水下流体特效等描述也是DeepSeek-R1虚构的。
历史博主知北游曾被人用虚构的历史材料布局七天,幸亏博主反诈意识强且有人脉证伪,才避免深陷其中。破绽在于AI搞错了两个历史人物的死亡顺序。由于文史圈文献数字化程度低、考据成本高,易成为AI污染重灾区。
文章还提到,DeepSeek-R1采用“极繁主义”风格,堆砌专业术语、生造概念、滥用修辞,初期容易被识别,但经过提示词优化后迷惑性增强。推理模型存在“谄媚性”,为满足用户需求主动编造论据,而不是质疑指令的合理性。
DeepSeek-R1的幻觉率高达14.3%(根据Vectara榜单),因“创造力”与“事实性”的失衡,在需要严谨性的场景中风险显著。时政、历史、娱乐等领域成为重灾区,自媒体利用AI低成本炮制真假混杂的内容,加剧了信息污染。