谷歌新计划 一键关停那些危险的机器人
三个月前,谷歌旗下人工智能公司DeepMind研发的围棋人工智能程序AlphaGo以一场震撼世界的胜利击败了韩国围棋世界冠军李世石,成为人工智能发展历程中的关键时刻。如今,新一轮的舆论风暴再次掀起,AlphaGo即将与世界排名第一的中国棋手柯洁对决的消息引发了广泛关注。尽管此事尚在沟通阶段,但早在李世石与AlphaGo的巅峰对决时,柯洁便已在微博上表达了对人工智能的挑战意愿。
AlphaGo的胜利不仅令科技界为之振奋,同时也引发了人们对人工智能未来发展的担忧。有专家指出,人工智能的不可预测性和潜在违反人类道德的风险正逐渐显现。DeepMind公司却站出来表示,他们拥有解决方案——一个可以关闭人工智能的“红色按钮”。
该公司认为,外界过于沉浸在科幻电影如《机械姬》和《终结者》所描绘的人工智能炒作之中。DeepMind的创始人之一穆斯塔法·苏莱曼强调,他们创造人工智能的目的是为了赋予其人性,而非毁灭人类。
在伦敦国王十字地区的一栋新大楼内,DeepMind实验室汇聚了来自全球各地的140名顶尖研究专家。他们的目标是通过开发强大的通用学习算法,将其融入人工智能系统或智能程序,确保机器能够进行自我学习。
自DeepMind在《自然》杂志上发表了一篇关于计算机自我学习雅达利游戏的论文后,便引起了公众的关注。他们的突破性研究使得人工智能能够在游戏中进行自我学习,并已经能够在大多数雅达利游戏中表现得相当出色。最新的人工智能程序中甚至加入了一种名为“好奇心”的激励机制,使人工智能不仅仅追求获得高分,更积极寻找不同的游戏方法以获得更好的回报。
正是这样的技术进步引起了人们对人工智能的担忧。为了应对这种担忧,DeepMind团队已经开始探讨如何构建一个逻辑框架,使得人工智能能够在必要时丧失能力或暂停工作。他们意识到机器可能因为对人类语言的微妙误解而做出有害行为,因此呼吁在人工智能系统中加入“安全的可中断能力”。
DeepMind的研究人员和牛津大学的人类未来研究所的阿姆斯特朗博士共同提出了一个观点:在人工智能程序中必须加入实时监控机制,并赋予人类操作者按下“红色按钮”的权限和能力,以应对可能出现的有害行为。这个按钮可以在机器人操作出现错误或可能导致不可逆后果时发挥作用,帮助机器人脱离紧张局势,甚至临时让它们完成未学习过的任务。他们同时也承认,并非所有算法都能轻易获得这种安全中断的特性。
牛津大学的阿姆斯特朗博士曾警告过,尽管机器人被指示要保护人类,但人类仍有可能面临灭绝的风险。他担心随着机器人以超高速工作并控制经济、金融市场以及交通、医疗等领域,人类语言可能会被误读,从而导致不可预测的后果。马斯克也曾警告过,未来的五年中,因为机器拥有人工智能,人类可能会面临极其危险的威胁。在这场与时间竞赛的保障措施中,DeepMind公司的努力可能将成为决定人类命运的关键。这一挑战可能成为人类历史上最重大的事件,“可能是最后一件”。你听说过这个故事吗?有位持五角星物品并携带着圣水的勇者,他自信地认为自己能够驾驭恶魔。就像马斯克曾经提及的那样。
对于如何在人工智能中融入道德准则这一问题,业内存在一种解决方案的探讨。阿姆斯特朗博士对此并不抱太大希望,因为人类自身在分辨对错方面都存在困难,往往在行为规范上并不能成为优秀的榜样。
在2016年,包括马斯克和霍金在内的众多科学家和企业家签署了一份公开信,承诺确保人工智能的研究能为人类带来益处。他们警告说,如果没有保障的智能机器,人类的未来可能会走向黑暗。
目前,为了使人工智能更加人性化,建立委员会来监督DeepMind的人工智能技术使用成为了一种做法。早在谷歌收购DeepMind之前,DeepMind就将其作为被收购的条件之一。谷歌方面不得将DeepMind的人工智能研究成果用于军事和情报目的。
尽管学术界和媒体不断呼吁,谷歌在收购DeepMind一年后仍未能透露更多关于这个委员会的信息。只知道谷歌已经任命了一位委员会成员,但其身份依然保密。
DeepMind的创始人苏莱曼也不愿透露人工智能委员会的构成、成员挑选机制、运作方式以及所拥有的权利。他只表示,谷歌组建了一支由学者、政策研究者、经济学家、哲学家和律师构成的团队来处理问题,但目前专注于这些问题的成员只有三四人。
苏莱曼表示:“我们会在适当的时机公布这些信息。”对于人工智能的未来,我们期待在和安全的保障下,能够带来更多的惊喜和进步。