百依百顺的机器人以后它要说“不”了
试想一下
一位年迈又健忘的用户让他/她专门照顾老年人的机器人把刚刚洗好的衣服再丢到洗衣机里去
一个幼儿园的小朋友命令机器人把球扔到窗外
一名学生让机器人帮她完成所有的家庭作业
一个处于忙乱之中的主人,指示料理家务机器人运行垃圾处理器,即使勺子和小刀还卡在里面
像这样,对机器人进行不恰当指令,但并未造成实质性损害的例子还有许多。但并不是所有案例都是良性的,即使机器人的主人在下达命令是出于好意。
机器人/图 来源网络
想象一下,一个机器人汽车根据指令在车道上倒车,但它后面却有一只小狗在香喷喷地睡觉,或者主人让厨房助手机器人拿起刀子往前走,它却站在一个人类厨师身后......命令很简单,后果却惨不忍睹。
那么,怎么样才能使机器人既听人类的命令,又不会造成不利后果?如果不让机器人在狗狗周围行驶的话,它可能会一点也不动了;如果要它避免拿刀刺到厨师,它可能会站住不动,或一开始就不去拿刀了。
使自主运行的机器在行动时探测到潜在威胁,并试图去避免威胁,或拒绝执行指令,任何情况下都很必要。,我们到底该如何教机器人在恰当的情形下说“不”呢?
| 如何使机器人预知下一步
位于波士顿的塔夫茨大学正在研发一种控制技术机器人可基于人类指令作出简单的推断。这将决定机器人是会按指令行事,还是会因为指令违反了预先设定的道德准则,而拒绝行动。
要让机器人知道什么时候、为什么、如何去拒绝执行指令,执行起来比口头说说要难得多。搞清楚一个行动会造成什么危害或问题,光看问题的直接结果是不够的一个从窗口扔出去的球,可能会掉进院子里,这不会造成任何伤害;但若掉到了繁忙的街道,这球可能就再也找不到了,甚至可能会导致司机为了躲避而突然一个急转弯,接着导致车祸。情景不同,结果不同。
以现有的机器人技术,在和孩子玩丢球游戏与把球扔出窗外或扔进垃圾桶之间,决定何时可以扔球,何时不可以还很困难。要是小孩子和机器人恶作剧,假装接球却躲过去,让球飞出开着的窗户的话,它就更不知道该怎么办了。
| 向机器人解释道德和法律
理解为何某些行为具有危险性,涉及到大量背景知识(包括在窗前玩球,球可能会飞出窗户)。这需要机器人不仅能自主考虑到行为后果,还能思考出人类发出指令的真正意图。
不管人类指令是出于好意还是恶意,机器人要能通过预知行为结果,弄清楚人类复杂指令的原因是什么,并能把行为结果与社会规定的、希望或合法的社会准则、道德准则相比较。如上所示,现有机器人遵循的一般规则是“如果机器人的行为会造成有害后果,那么他们可拒绝行动。”明确义务和权限之间的关系,能让机器人通过可能结果,推理是否要执行指令。
,机器人不该执行违法或不被希望的行为。,他们需要了解法律、道德准则,甚至是礼节,以决定行为结果,或行为本身是否违反这些准则。
目前,想让机器人处理上述情境,还有很长的道路要走。但有一点早已证实要让机器人去服从命令,它们得先学会拒绝。
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可