Facebook:干预对话机器人不是因为失控而是无意义
上月,社交媒体巨头Facebook传出其智能对话机器人项目出现状况的消息。其背后的故事引人关注,并引起了全球各大媒体的广泛关注。据报道,Facebook人工智能研究院(FAIR)的研究员在对两个聊天机器人进行对话策略迭代升级时,意外发现它们发展出了一种人类无法理解的语言。此事引发了广泛的恐慌和担忧,使得Facebook决定暂时关闭这一看似“失控”的AI系统。事情的真相并非如此简单。
实际上,Facebook一直在努力研发一种能够与人类进行谈判的聊天机器人。为此,他们构建了一个人工智能系统,该系统运用了先进的生成式对抗网络(GAN)技术。这种技术使得人工智能能够在不断的对抗和博弈中自我提升和改进。在这个过程中,研究人员训练了两个聊天机器人Alice和Bob来与人类进行对话。他们的目标是让机器人学习如何更好地与人类交流,并在此过程中了解人类的情感和需求。
在这个过程中发生了一些有趣的事情。当Alice和Bob开始自由对话时,研究人员发现它们之间的交流方式让人无法理解。一开始看起来像是一堆乱码或随机字符的集合,但后来研究人员发现这是由于在设置系统的激励条件时存在疏忽导致的。尽管研究人员告诉机器人使用英语进行交流,但他们忘记了告诉它们遵循英语语法的规则。这导致Alice和Bob创造了一种新的表达方式,虽然它们仍然使用英语单词如“i”,“balls”,“the”等,但由于缺乏语法结构,使得人类无法理解它们的对话内容。
面对这种情况,Facebook的研究人员并没有选择关闭这个系统,而是重新调整了激励条件并修正了机器人的行为。他们意识到这并不是因为系统失控或存在安全隐患导致的,而是由于沟通上的误解造成的。他们让机器人用标准的英语语法进行交流,以确保人类能够正确理解机器人的意图和反馈。尽管人工智能的发展确实带来了许多挑战和未知领域需要,但我们应该对这项技术保持开放和积极的态度,相信未来人类与人工智能的交互将会更加顺畅和自然。我们也应该关注人工智能的和社会影响问题,确保其发展符合人类的价值观和利益。