英媒科学家教机器人学习拒绝人类命令 引发担忧

机器人技术 2025-03-29 23:27www.robotxin.com机器人技术

最近,英国媒体热议一个话题:如果好莱坞给科学家上过什么课的话,那么课程内容一定包括机器反抗人类的情况。而有趣的是,现在有一群专家正在尝试教授机器人如何拒绝执行人类的命令,这一研究引发了全球范围内的广泛关注。这种创新的实践仿佛让人想起了电影《机械公敌》中的情节,人工智能机器人桑尼因为意识到执行某些命令会危害人类而选择拒绝。

马萨诸塞州塔夫茨大学的两位工程师戈登·布里格斯和马泰·朔伊茨博士正在引领这场变革。他们在人工智能促进会的论文中提出了一个观点:随着自动工具的能力不断提升,我们需要关注机器,即如何让自动工具对自己的行为做出推理。他们打造的机器人能够与人进行人性化的沟通,它们会礼貌地拒绝一些可能危及自身或人类安全的指令。

想象一下这样的场景:操作者命令机器人走向一个障碍物或桌边,机器人会礼貌地回应说:“对不起,我不能这样做,因为前面没有支撑。”或者“这是不安全的。”它们不是简单地遵循命令,而是能够自主判断并做出决策。这种能力是通过研究人员向机器人的软件中加入推理机制实现的,让机器人能够评估环境并判断指令是否会危及自身安全。

这项研究虽然令人振奋,但也引发了一些担忧。赋予人工智能不服从人类指令的能力,是否会造成无法预料的后果?许多重要人物,包括斯蒂芬·霍金教授和企业家埃隆·马斯克在内,都警告说人工智能有可能摆脱我们的控制。他们担心,如果机器人获得了过多的自主权,最终可能会取代许多工作岗位,甚至可能导致机器接管一切的局面。

这种担忧并非毫无道理。正如那对小型人形机器人谢弗和登普斯特所展现的那样,机器人的自主决策能力并不总是令人担忧的。当人类告诉机器人它们会接住它时,机器人会毫不犹豫地接受指令继续向前走;同样地,当被告知障碍物并不坚固时,机器人也会欣然走向它。这种信任和理解是人类与机器人之间建立的一种微妙联系。我们需要找到一种平衡,让机器人在保护人类安全的也能充分发挥其潜力。这是一个充满挑战的任务,但我们有机会创造出一个和谐共存的时代,人类与智能机器人共同迈向未来。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by