加州大学洛杉矶分校研究团队发明会自我解释的
人工智能正在逐步融入我们的日常生活,手机智能助手、智能家电和导航系统等都在为我们提供便利。随着AI技术的普及,关于人与机器之间的信任危机问题再次浮出水面。我们能够信任这些智能系统吗?它们是否会准确执行我们的指令?为了解决这些问题,可解释性人工智能(XAI)应运而生,其致力于提升人工智能系统的可信度,促进人类与AI的和谐共处。
加州大学洛杉矶分校的研究团队最近对此展开深入研究,如何让机器人向人类用户解释其行动和目标。他们发现,机器人的智能自我解释形式与性能最佳的学习算法并不总是一致。为了设计出让人类感到信赖的机器人,需要在关注性能的注重提升其自我解释的能力。
为了机器人如何最高效率地执行任务以及人类的回应方式,研究团队进行了一项有趣的实验。他们让机器人学习如何打开药瓶的瓶盖,同时利用一个有触觉记忆系统的手套来记录人类打开瓶子时的动作和力量。这帮助机器人通过象征性信息和触觉信息理解人类行为。象征性信息指的是有意义的行为动作,如抓取动作;而触觉信息则是与身体姿势和动作相关的感觉。
当机器人吸收了这两种信息后,它会对如何执行打开瓶子的任务进行编码。结合象征性信息和触觉信息,机器人能够达到最佳性能。研究还发现,机器人如何向人类用户解释自己的行为是增进信任的关键。在实验中,为机器人执行任务添加了自我解释流程后,他们发现结合象征性和触觉信息的文本解释最能培养机器人与人类之间的信任。这意味着人类更喜欢机器人逐步解释它们的工作内容。
这项研究强调了性能和自我解释能力在构建AI系统时的同等重要性。为了实现“我相信机器人”这一更具挑战性的目标,机器人不仅需要表现出良好的性能,还需要提供有助于增进人类信任度的自我解释文本。了解机器人如何提供这样的解释是使人类和机器人能够共同工作、和睦相处的重要一步。随着研究的深入,我们有望在未来看到更多值得信赖的机器人融入我们的日常生活,为我们提供更多便利。对于人工智能的未来,我们充满期待并为之努力。
机器人工业设计
- 加州大学洛杉矶分校研究团队发明会自我解释的
- 谷歌人工智能发展方向错误 应该向中国的微信学
- 配网带电作业机器人首次在新昌闪亮登场
- 谁在紧盯5G车联网技术?
- 从华为到无人机再到电动巴士 美国在下什么棋
- 走近战胜人类的这条狗!AlphaGo深度揭秘
- 360首曝人工智能研发三大神秘成果
- 中国新一代百亿亿次超级计算机研制启动
- 谷歌将全面进入人工智能世界
- Pilz已推出全新系列的急停按钮PITestopactive智能切
- 超半数规上企业已机器换人
- 2025年中国云计算规模有望达1174.12亿
- 立足国内,服务全球 擎朗送餐机器人坚定国际化
- 年产量2万台哈工智能与现代机器人成立合资公司
- AMBER实验室研制出可以慢跑的机器人
- 探索云计算商业模式