英国格拉斯哥大学哲学研究人员谈AI 幻觉 用胡说八道来形容更准确

机器人技术 2025-03-21 08:46www.robotxin.com机器人技术

一直以来,人们常常将大语言模型提供的看似合理却错误百出的答案称作“AI 幻觉(AI hallucinations)”。英国格拉斯哥大学的三名哲学研究人员却对此持有不同看法。他们在最近的一篇论文中,于当地时间 6 月 8 日在《与信息技术》杂志上发表,指出使用“AI 幻觉”这一描述并不准确。他们认为,聊天机器人的回答行为若被视为“胡编乱造”,那么用“胡说八道(bullshitting)”来形容或许更为贴切。

研究团队深入探讨了“幻觉”的定义。在心理学或迷幻类药物的语境下,“幻觉”通常指的是看到或感知到不存在的东西。在人工智能领域,“幻觉”作为一种隐喻,并不适用于大语言模型的回答。大语言模型并不存在视觉或感知能力,它们的行为实际上是在复制训练数据中的人类语言模式,并不关注事实的准确性。

这些机器并非试图传达它们所感知或相信的内容,其回答的不准确性也并非源于误解或幻觉。恰恰相反,它们并不传递信息,而是通过产生看似合理但实则错误的答案来“胡说八道”。值得注意的是,AI 模型缺乏信念、意图或理解力,它们之所以产生不准确的结果,并非因为误解或幻觉,而是因为它们被设计成生成看起来和听起来都正确的文本,却没有机制来确保事实的准确性。

随着 AI 的崛起,“hallucinate”(产生幻觉)一词已经被延伸为描述 AI 生成错误信息的现象。例如,最近的谷歌搜索推荐用户添加胶水到披萨上,以及某些 AI 产品误认为自己属于其他公司等事件,都与 AI 幻觉有关。剑桥词典去年宣布的年度词汇“hallucinate”,原本指的是在不良健康或药物影响下看到的、听到的、感觉到的或嗅到的“不存在的东西”。现在,这个词已经被扩展为描述 AI 的行为特征。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by