官方机器人伦理准则解析:不要歧视,不做伤害

工业机器人 2019-08-16 08:01www.robotxin.com工业机器人教育
   美国著名小说家艾萨克·阿西莫夫(Isaac Asimov)曾为我们指出过的基本行为规则不伤害人类、服从命令和保护机器人自己。最近,英国标准研究院(BSI)发布了一份更为官方的机器人伦理准则文件,旨在帮助设计者创造合乎伦理的机器人。
 
  BSI发布的这份文件叫作“BS8611机器人和机器人设备”,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可能直接取自科幻小说。机器人欺骗、过度依赖机器人和自主学习系统可能会超出他们的权限,这些都是制造商应该考虑到的危害。
 
  这份文件是在牛津Social Robotics and AI大会上提出的,是英格兰大学的机器人技术教授Alan Winfield指出,这些准则代表了将伦理价值嵌入机器人和人工智能的第一步。这是第一个公开发表的、针对机器人设计的伦理标准,比阿西莫夫的法则更为复杂,提出了如何对机器人的伦理风险进行评估。
 
  BSI文件的内容一开始是一系列宽泛的伦理原则设计机器人的目的不应该是为了杀死或伤害人类;负责任的主体应该是人,而不是机器人;要能够找出对机器人及其行为负责的主体。
 

 
  接下来的内容重点强调了一系列更具争议性的问题,比如同机器人建立感情纽带是否可取,尤其是设计的机器人是用来与儿童或老年人进行互动的。
 
  谢菲尔德大学机器人和人工智能名誉教授Noel Sharkey举了一个例子,说明机器人可以无意地欺骗我们。在一个幼儿园配备有小机器人,孩子们很喜欢它,认为机器人比他们的家庭宠物认知性更强,实际上就是和机器人建立了情感纽带。
 
  该准则表明设计者应该致力于透明化,但科学家们却说,在实际操作中这可能是非常困难的,因为目前AI系统的问题,特别是这些深度学习系统,是不可能知道为什么他们会做出这样或那样决定的。比方说,深度学习代理在完成某一项具体任务时,并不是按设定的方式;他们会尝试数百万次,来找到一个成功的策略,以此来执行任务——有时候这些策略是设计者都预想不到和无法理解的。
 
  该准则甚至暗示了可能会出现带有性别歧视或种族歧视的机器人,并警惕大家这些机器人可能会缺乏对文化多样性和多元主义的尊重。这一现象已经出现在警察所使用的技术上,比方说机场该类技术识别出可疑的人,并将其进行拦截,这就是一种种族歧视的评判。
 
  并且,深度学习系统基本上使用互联网上的全部数据,但问题是,这些数据是带有倾向性的,就像这些系统倾向于支持中年白人男子。所有人类的偏见都有可能被纳入系统,这非常危险。
 
  美国著名小说家艾萨克·阿西莫夫(Isaac Asimov)曾为我们指出过机器人的基本行为规则不伤害人类、服从命令和保护机器人自己。最近,英国标准研究院(BSI)发布了一份更为官方的机器人伦理准则文件,旨在帮助设计者创造合乎伦理的机器人。
 
  BSI发布的这份文件叫作“BS8611机器人和机器人设备”,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可能直接取自科幻小说。机器人欺骗、过度依赖机器人和自主学习系统可能会超出他们的权限,这些都是制造商应该考虑到的危害。
 
  这份文件是在牛津Social Robotics and AI大会上提出的,是英格兰大学的机器人技术教授Alan Winfield指出,这些准则代表了将伦理价值嵌入机器人和人工智能的第一步。这是第一个公开发表的、针对机器人设计的伦理标准,比阿西莫夫的法则更为复杂,提出了如何对机器人的伦理风险进行评估。
 
  BSI文件的内容一开始是一系列宽泛的伦理原则设计机器人的目的不应该是为了杀死或伤害人类;负责任的主体应该是人,而不是机器人;要能够找出对机器人及其行为负责的主体。
 
  接下来的内容重点强调了一系列更具争议性的问题,比如同机器人建立感情纽带是否可取,尤其是设计的机器人是用来与儿童或老年人进行互动的。
 
  谢菲尔德大学机器人和人工智能名誉教授Noel Sharkey举了一个例子,说明机器人可以无意地欺骗我们。在一个幼儿园配备有小机器人,孩子们很喜欢它,认为机器人比他们的家庭宠物认知性更强,实际上就是和机器人建立了情感纽带。
 
  该准则表明设计者应该致力于透明化,但科学家们却说,在实际操作中这可能是非常困难的,因为目前AI系统的问题,特别是这些深度学习系统,是不可能知道为什么他们会做出这样或那样决定的。比方说,深度学习代理在完成某一项具体任务时,并不是按设定的方式;他们会尝试数百万次,来找到一个成功的策略,以此来执行任务——有时候这些策略是设计者都预想不到和无法理解的。
 
  该准则甚至暗示了可能会出现带有性别歧视或种族歧视的机器人,并警惕大家这些机器人可能会缺乏对文化多样性和多元主义的尊重。这一现象已经出现在警察所使用的技术上,比方说机场应用该类技术识别出可疑的人,并将其进行拦截,这就是一种种族歧视的评判。
 
  并且,深度学习系统基本上使用互联网上的全部数据,但问题是,这些数据是带有倾向性的,就像这些系统倾向于支持中年白人男子。所有人类的偏见都有可能被纳入系统,这非常危险。
<

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by