英国格拉斯哥大学哲学研究人员谈AI 幻觉 用胡说八道来形容更准确
一直以来,人们常常将大语言模型提供的看似合理却错误百出的答案称作“AI 幻觉(AI hallucinations)”。英国格拉斯哥大学的三名哲学研究人员却对此持有不同看法。他们在最近的一篇论文中,于当地时间 6 月 8 日在《与信息技术》杂志上发表,指出使用“AI 幻觉”这一描述并不准确。他们认为,聊天机器人的回答行为若被视为“胡编乱造”,那么用“胡说八道(bullshitting)”来形容或许更为贴切。
研究团队深入探讨了“幻觉”的定义。在心理学或迷幻类药物的语境下,“幻觉”通常指的是看到或感知到不存在的东西。在人工智能领域,“幻觉”作为一种隐喻,并不适用于大语言模型的回答。大语言模型并不存在视觉或感知能力,它们的行为实际上是在复制训练数据中的人类语言模式,并不关注事实的准确性。
这些机器并非试图传达它们所感知或相信的内容,其回答的不准确性也并非源于误解或幻觉。恰恰相反,它们并不传递信息,而是通过产生看似合理但实则错误的答案来“胡说八道”。值得注意的是,AI 模型缺乏信念、意图或理解力,它们之所以产生不准确的结果,并非因为误解或幻觉,而是因为它们被设计成生成看起来和听起来都正确的文本,却没有机制来确保事实的准确性。
随着 AI 的崛起,“hallucinate”(产生幻觉)一词已经被延伸为描述 AI 生成错误信息的现象。例如,最近的谷歌搜索推荐用户添加胶水到披萨上,以及某些 AI 产品误认为自己属于其他公司等事件,都与 AI 幻觉有关。剑桥词典去年宣布的年度词汇“hallucinate”,原本指的是在不良健康或药物影响下看到的、听到的、感觉到的或嗅到的“不存在的东西”。现在,这个词已经被扩展为描述 AI 的行为特征。
机器人技术
- 英国格拉斯哥大学哲学研究人员谈AI 幻觉 用胡说
- AI换脸技术背后的资源:如何获取高质量的AI换脸
- 人工智能与办公自动化的发展
- 苹果公司的机器学习负责人离职 将运营AI智囊
- 医用智能消毒机器人供应
- 双环传动技术与产能并举,RV减速器业务志在必得
- 陕钢汉钢 智能制造新突破 工业机器人顺利通过试
- 机器人工程就业前景工资待遇
- 盐南高新区新河街道 推进两化融合做大做强西伏
- 长宁工业机器人包装机
- 面向矿山、农业、建筑三个领域征集机器人典型
- 日产 CEO 电动汽车需求波动 动力总成灵活性至关
- 智能制造未来发展方向
- 埃斯顿 工业机器人持续快速增长
- 红旗工厂全自动无人配送科技总装车间的创新体
- 全球机器人的未来规划