AI为何会一本正经地胡说八道

新闻热点 2024-12-23 10:37www.robotxin.com纳米机器人

想象一下,当你向一个AI聊天机器人询问一个不存在的历史事件,比如询问“谁赢得了1897年美国和南极洲之间的战斗?”这种问题时,AI机器人可能会给出一个虚构的答案,就像它真的知道发生了什么一样。这种现象被称为AI的“一本正经地胡说八道”,也被称为AI幻觉。这种现象在专业领域引起了广泛关注。哈尔滨工业大学(深圳)的特聘校长助理张民教授在接受科技日报记者采访时表示:“AI幻觉指的是AI生成的答案看似合理连贯,但实际上与输入问题的意图不符,与现实世界的知识相悖。”

张教授指出,AI幻觉是一个普遍存在的问题。近期的一些实例也证实了这一点。例如,谷歌发布的AI聊天机器人Bard在展示其能力时,做出了关于詹姆斯·韦布空间望远镜的不真实陈述。又如美国的两名律师使用ChatGPT生成法律文书,虽然格式工整、论证严密,但其中的案例却是虚构的。这些事例都表明,即使在看似真实的答案背后,也可能隐藏着虚假的成分。

OpenAI的研究人员曾发布报告承认,即使是最先进的AI模型也容易生成虚假的答案,它们在不确定的时刻会倾向于捏造事实。其他人工智能初创公司和机器学习监控平台的研究报告也显示,不同公司开发的大型语言模型都存在类似的幻觉问题。这意味着AI幻觉是普遍存在的,不仅仅局限于某个特定的AI系统。

虽然目前国内的大型语言模型尚未有产生AI幻觉的相关披露,但我们仍然可以从一些公开报道中找到相关的迹象。由此可见,对于人工智能的进一步发展,我们需要更加关注如何减少或避免AI幻觉的产生,以确保AI技术能够更好地为人类服务。我们也需要提高公众对AI技术的认识,了解其在某些情况下可能存在的问题和局限性。腾讯混元大语言模型的进阶:降低“胡言乱语”的概率

今年9月,腾讯迎来了一项重大突破——混元大语言模型的亮相。腾讯集团副总裁蒋杰为我们揭示了背后的努力。针对大模型容易“胡言乱语”的通病,腾讯团队通过优化预训练算法及策略,使得混元大模型出现幻觉的概率较主流开源大模型降低了30%至50%。

你是否想过,一个庞大的AI模型可能会“一本正经地胡说八道”?科大讯飞研究院副院长、金融科技事业部CTO赵乾在第七届金融科技与金融安全峰会上分享了他的观点。他强调,如果不与行业专业数据库或应用插件相结合,大模型可能会提供过时或不专业的答案。幸运的是,科大讯飞已经推出了一些技术方案,旨在让大模型发挥其长处,避免其短处。

那么,AI幻觉究竟从何而来?其实,这大多源于AI本身。张民为我们介绍了AI幻觉的两种分类:内在幻觉和外在幻觉。内在幻觉指的是与输入信息不一致的幻觉内容,可能是针对用户同一问题的不同提问方式给出的自相矛盾的回复。而外在幻觉则是指与世界知识不一致或无法通过已有信息验证的内容。

近期,腾讯AI Lab联合国内外多家学术机构发布了一篇关于大模型幻觉的综述。这篇综述指出,AI幻觉主要出现在大模型缺乏相关知识、记忆错误知识以及无法准确估计自身能力边界等场景。张民进一步解释,从技术原理上看,AI幻觉主要是由于AI对知识的记忆和理解能力不足、训练方式的固有弊端以及模型技术的局限性所导致的。

我们必须认识到,AI幻觉可能会引发知识偏见和误解,甚至可能导致安全风险、和道德问题。随着AI技术的不断进步,我们也需要持续关注并努力解决这些问题,以确保AI技术能够更好地为人类服务。AI幻觉的挑战与应对

尽管人工智能(AI)的进步带来了前所未有的机会,但AI幻觉作为一个挑战性问题仍然困扰着业界。尽管短期内难以完全消除,但业界正积极寻求技术改进和监管评估的方法,以确保AI技术的安全可靠应用。

张民介绍,现阶段的AI幻觉无法彻底消除,但我们可以通过一系列技术手段来尝试缓解这一问题。在预训练、微调强化学习、推理生成等各个阶段,都有相应的策略可以实施。

在预训练阶段,关键在于选取和过滤知识密集、高质量的数据。而在微调强化学习阶段,选择模型知识边界内的训练数据至关重要。至于推理生成过程,可以通过检索外部知识使模型生成的结果有证据可循。改进解码搜索算法同样是一种有效的解决方案。

腾讯AI Lab联合国内外多家学术机构发布的综述也表达了类似观点,并指出多智能体交互、指令设计、人在回路、分析模型内部状态等技术也可以用于缓解AI幻觉。

值得一提的是,哈尔滨工业大学(深圳)自研的立知文本大模型和九天多模态大模型,在探索缓解AI幻觉的方式上取得了显著成效。这些努力对于开发真实可信的AI大模型至关重要。

为了降低语言模型的外部幻觉问题,我们尝试通过视觉信息增强语言模型的能力。通过多个大模型智能体的独立思考和分析,经由它们之间的讨论、博弈和合作,增强回复的客观性,减少AI幻觉。张民表示,破解AI幻觉将提高AI系统的实用性、可信度和可应用性,对人工智能技术的未来发展和社会的发展产生积极影响。

一个更可靠、更实用的AI系统可以渗透到各个领域中,为社会带来更大的便利和创新机会。从金融到医疗,从教育到交通,AI的应用将促进技术的进步,并带动更多的创新。我们期待一个更智能、更安全的未来,而破解AI幻觉是通往这个未来的关键一步。科技日报报道,随着人工智能(AI)技术的飞速发展,我们面临着一种特殊的挑战——AI幻觉。为了确保AI系统的决策更加准确可靠,我们必须采取多方面的措施,从算法、数据、透明度到监管等各个领域进行深入研究和改进。

算法是AI技术的核心。为了破解AI幻觉,我们需要对算法进行持续优化和创新。这需要我们深入探索那些能够揭示真实世界与虚拟世界之间微妙差异的算法机制。我们需要开发出更为精准、敏锐的算法,以便更准确地识别和应对各种可能出现的幻觉现象。

数据是AI系统学习的基石。数据的真实性和多样性对于防止AI系统受到幻觉的影响至关重要。我们需要采取更为严格的数据采集标准,确保AI系统接受到的信息真实可靠。我们还需要拓展数据来源,增加数据的多样性,以提升AI系统的适应性和泛化能力。

透明度是AI系统的重要保证。为了破解AI幻觉,我们需要让AI系统的决策过程更加透明。这意味着我们需要设计更为开放的AI系统架构,使得人们可以了解并理解AI系统是如何做出决策的。这将有助于我们发现并纠正AI系统在决策过程中可能出现的错误和偏差。

监管是破解AI幻觉的重要保障。随着AI技术的广泛应用,我们需要制定更为严格的AI监管政策,确保AI技术的发展和应用符合道德和法律的规范。我们还需要建立专门的监管机构,对AI系统进行定期的检查和评估,以确保其决策的准确性。

未来破解AI幻觉需要我们全方位的努力。从算法、数据、透明度到监管等多个方面采取措施,我们才能够确保AI系统的决策更加准确可靠。让我们共同期待这一科技领域的重大突破,为人工智能的未来发展铺平道路。记者 罗云鹏 为科技日报带来此报道。

上一篇:新款机器人 帮你克服健忘症 下一篇:没有了

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by