发展“以人为本”的人工智能

人工智能 2019-08-15 19:06www.robotxin.com人工智能专业
  近日,我看到李飞飞在离开谷歌之后的首个亮点,在斯坦福大学启动了一个“以人为本人工智能项目”,目标是创建“以人为本人工智能研究院(Stanford Human-Centered AI Institute (HAI))”。李飞飞与斯坦福大学前副校长,哲学家John Etchemendy共同担任HAI研究院院长。李飞飞表示这个项目是学校从校长到几十位教授一年多以来的共同努力,今天终于公开。我们的宗旨是“推动人工智能的研究,教育,政策和实践,以造福全人类”。研究院将致力于三个方向的工作1)推进和发展下一代AI科学(着重与脑科学和认知学交叉),2)研究和预测AI对人类社会和生活的影响,3)设计和实践以人为本的AI技术和。
 
  就是在李飞飞宣布在斯坦福大学启动“以人为本人工智能项目”的当日, The 7th Asian Privacy Scholars Netork (APSN) International Conference(第七届亚太地区隐私保护学者联盟国际会议)在南京邮电大学召开,本次国际会议主要聚焦“人工智能与大数据时代的法律问题”。本人有幸作为本届大会主席向来自亚太地区的隐私保护学者呼吁“人工智能的发展须以人为本“,并发表了主旨演讲,我的演讲题目正是“发展‘以人为本’的人工智能”,以下是本人发言的主要内容
 
  AI的发展已经走过了60多年的历程,期间出现了三次浪潮第一波浪潮实际上是从1956年-1976年,最核心的是逻辑主义(符号主义),逻辑主义主要是用机器证明的办法去证明和推理一些知识;第二波浪潮是从1976年到80年代中期,属于AI的低潮,主要的是连接主义,即“出自大规模连接的命令”"order-emerging-out-of-massive-connections",连接主义持续了十几年,大概到2006年又开始走下坡了。
 
  人工智能的第三次浪潮(2006年-现在)与前两次的浪潮有着明显的不同,其代表性的成果就是深度学习,深度学习技术由于能够自动从海量数据中学习复杂的特征,被认为是新一代人工智能最重要、应用最广泛的技术。
 
  目前,新一代AI尚没有权威统一的定义,但我们从世界权威的韦伯字典可以了解 “智能”(Intelligence)的定义Ability of learning or understanding things,or dealing ith ne or difficult situations,其中的3个关键字是1.Learning(学习—目的是获得知识或规则),2.Understanding(理解—基于知识做出评判或决策),3.Dealing(行为—基于理解做出相应行动)。如何理解AI的深度学习,可以从四个层面理解,We kno hat e kno;We kno hat e don't kno;We don't kno hat e kno;We don't kno hat e don't kno。2015年谷歌DeepMind公司研发的深度学习结合强化学习的“深度强化学习”技术,该技术能够学会玩Atari游戏,并达到了可与人类匹敌的水平。事实上,“深度强化学习”技术就是AlphaGo的核心技术。
 
  当前,人工智能研究的领域主要有五层最底层是基础设施建设,包含数据和计算能力两部分,数据越大,人工智能的能力越强;往上一层为算法,如卷积神经网络、LSTM (Long Short-Term Memory 长短期记忆网络)序列学习、Q-Learning、深度学习等算法,都是机器学习的算法;第三层为重要的技术方向和问题,如计算机视觉,语音工程,自然语言处理等。还有的一些类似决策系统,像 reinforcement learning(增强学习),或像一些大数据分析的统计系统,这些都能在机器学习算法上产生;第四层为具体的技术,如图像识别、语音识别、机器翻译等等;最顶端为行业的解决方案,如人工智能在金融、医疗、互联网、交通和游戏等上的应用,这是我们所关心它能带来的价值。
 
  高速并行运算、海量数据、更优化的算法共同促成了人工智能发展的突破。可见,人工智能第三次浪潮的本质上是一种建立在大数据基础上的自我学习、判断和决策的算法。如果我们把人工智能看成一个嗷嗷待哺育有无限潜力的婴儿,那么,某一领域专业的海量深度的数据就是喂养这个天才婴儿的奶粉,奶粉的数量决定了婴儿是否能长大,而奶粉的配方质量(算法的质量)则决定了婴儿后续的智力发育水平。
 
  AI的算法本质是网络的编程技术,但这种编程技术绝非中立,人工智能的算法决策具有典型的“黑箱”特点,这应当引起现代法律人的高度警惕和深入地研究,应当从伦理学和法律融合的角度深入审视和研究AI的算法。笔者认为,人工智能在其发展进程中面临的最大问题不是技术本身,而是伦理和法律问题。2017年6月,由联合国国际电信联盟主办的主题为“人工智能造福人类”的全球峰会在日内瓦召开。这次峰会聚焦了人工智能的两大国际性问题一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。
 
  已故著名物理学家、剑桥大学教授史蒂芬·霍金((Steven Haking))在世时(2017年)曾警告在我的一生中,见证了许多社会深刻变化,其中最深刻的,也是对人类影响与日俱增的变化,就是人工智能的崛起。霍金认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。他所担心的这些问题就是AI的伦理和法律问题。
 
  笔者认为,当前AI的研究领域应重点关注机器道德(Machine Morality)、机器伦理学(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工智能道德(AI Morality),研究如何将人类良好的规范和道德价值嵌入AI系统,让AI更安全、让AI更友好、让AI更善良。我们应当将人类优良的道德规范和伦理价值(ethical value)嵌入AI系统,建议重点要关注三个问题一是要识别特定社会或团体的规范和价值;二是将这些规范和价值编写进AI系统;三是评估被写进AI系统的规范和价值的有效性,即是否和现实的规范和价值相一致、相兼容。
 
  对此,监管机构应当出台相关政策和制定相关法规,重点规制AI/AS设计、开发与制造过程中的透明度,尤其是AI的算法必须确立法律的可追溯性原则,AI的行为决策全程应当处于法律监管之下。一方面需要建立监督AI制造过程的标准,避免给终端人类和社会带来伤害;另一方面,政策制定者可以限制计算机推理,以免其过分复杂,造成人们难以理解的局面。对AI的监管,应当体现三大原则一是AI的发展应当体现对人权的保护;二是优先考虑AI对法律、社会伦理和侵犯个人隐私的冲击;三是通过立法和强制性标准的制定,削弱AI对人类的风险和负面影响。
 
  中国国务院于2017年发布的《新一代人工智能发展规划》指出,人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。为此提出1.到2020年,部分领域的人工智能伦理规范和政策法规初步建立;2.到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;3.到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。
 
  人工智能的本质是服务人类社会(AI as a service,AIaas),而人类社会的核心价值就是“以人为本”,由此,人工智能技术的发展应当造福于人类,应当贯彻“以人为本”的原则,这是发展人工智能的基石。欧盟法律事务委员会曾建议,在针对人工智能和制定政策时,应当进一步完善设计保护隐私(privacy by design)、默认保护隐私(privacy by default)、知情同意、加密等概念的标准。
 
  笔者呼吁即使有一天,当公民的个人数据成为“流通物”时,在任何情况下都不得触及个人隐私数据这条红线。隐私权是人类永恒的基本权利,人工智能的发展不能以剥夺人类的基本权利为代价。恰恰相反,人工智能应该更好地保护人类的基本权利,其中就应该包括隐私权,这才是人工智能健康发展的正确方向。
 
  不管AI世界将来有多么神奇,如果离开了人,再神奇的AI也会变得毫无意义。所以,我忠告AI的研究者、设计者、开发者,你们不能脱离AI服务人类的宗旨去思考那些与服务人类毫不相干的AI,你们更不能存有破坏人类社会的奇思怪想,这会把AI引向死胡同。你们一定要以人为出发点,以人为根本,以一种“为人类着想的善良“的品质和使命感,着重让AI解决与人类美好生活和人类健康发展相关的各种问题。
<

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by