机器学习的决策为何有偏见?科学家们很头疼
本月,这份报告提交给了巴塞罗那举办的NIPS 大会(NIPS,神经信息处理系统)。与此,其它人也提交了一些相关的论文。这证明此问题正在受到更多人的重视。芝加哥丰田技术学院的计算机科学家 Nathan Srebro 是上述研究报告的作者之一。他向卫报网站介绍了研究员们使用的测试方法。
(图片来自 springboard)
Srebro 说,这项测试是针对系统的。通过分析大量的数据,系统能够对未来做出预测。问题在于,计算机的决策规则并非实现事先编写好的,而是计算机自己学会的,,决策背后的逻辑通常是不可知的。即使编写算法的程序员也未必能够搞清楚。
“算法是如此复杂,即使我们能够进入其内部,搞懂其内在原理也是几乎不可能的,” Srebro 说,“的全部要点就是构建魔法黑箱子。”
为此,Srebro 与同事们设计了一种测试方法。他们只检测进入算法的数据以及算法给出的决策。“我们的方法并不关注算法的内部,” Srebro 说,“我们只关注它做出了什么决策。”
(图片来自 udemy)
这个方法基于一个基本原则当算法做出与某人相关的决策时,它只能揭示数据提供的内容,而不能暴露个人的种族或者性别。例如,在偿还银行债务方面,男性拖欠债务的比例远远超过女性,那么,当数据库里的某人拖欠债务,你可能会推论,那很可能是一个男人。,如果你推断说,银行的最佳策略是拒绝所有男性的贷款请求,那么,该决策就精确定位了个人的性别。“这可以视为不合理的歧视,” Srebro 说。
针对这个方法,有人提出了质疑。他们认为,这等于是绕过了机器算法的决策过程,使其缺乏任何的透明性。西英格兰的机器人道德学教授 Alan Winfield 说,“设想一下,如果某个案件涉及到机器算法的决策,法庭将需要专家证人解释算法做出决策的理由。”
不过,他也承认,如果要求机器决策的绝对透明度,那肯定会引起深度学习社群的强烈抗议。谢菲尔德大学机器人和人工智能学教授 Noel Sharkey 同意这种观点。“如果你要找出输油管道的最佳方案,是个很好的选择,,在我们深入了解算法如何产生偏见之前,我会很在意它做出一些影响人们生活的决策。”
题图来自 acm
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可