纠正“三观” 关于人工智能技术的11种谬误
人工智能的崛起:超越想象的智能时代
人工智能的出现,可能超出了我们庸俗想象的极限。它不仅仅是一种技术,更是一种自我优化、自我扩张的力量,其计算能力在未来可能超越人类数千万倍。随着人工智能逐渐融入我们的生活,人们对它的渴求愈发狂热,然而这也催生了一些遍地开花的误解。
我们是否创造了类似人脑的计算机?
各大科技公司都在积极投身人工智能的研究,神经网络计算成为他们技术前沿的最佳例证。市场部门简化其原理,使其听起来如同人脑的神经网络一般工作。尽管1980年神经网络计算已经出现,但与人脑的联系仍然模糊。正如伯克利大学的迈克尔·乔丹所说:“我们连大脑如何存储信息和运作都不清楚,其中的规则和算法是什么?我们现在还不能确定用大脑的理论来指导人工智能系统。”
图灵测试:智力的新衡量标准?
在2014年,有一则新闻引起广泛关注:一台名为Eugene Goostman的计算机通过了图灵测试。它伪装成一名十三岁的男孩,成功地欺骗了超过30%的测评人员。图灵测试是判断机器是否能像人类一样思考的实验:如果机器成功欺骗测试人员,使其误认为是人类,则机器通过测试。一些批评者认为Eugene Goostman的设计只是为了通过这5分钟的测试,其表现并不代表其真正具备智能。
人工智能的智力水平:如何定义?
许多科技公司尝试为其人工智能产品定义智力水平。例如,百度CEO李彦宏表示,他们的“百度大脑”项目已经相当于2-3岁孩子的智力水平。这些年龄定义更多地是为了营销目的。真正的智能水平可能远比这复杂。科学家Jeff Hawkins指出,人类大脑能够学习几乎所有内容,而当前的人工智能技术还远未达到这一水平。当我们谈论人工智能的智力水平时,应该更谨慎并注重实际的性能表现。
算法的力量:控制一切?
有人声称算法可以做出比人类更好的选择。纯粹的算法并不总是完美的。例如,Techmeme这个用算法自动抓取新闻内容的网站,在初期发现纯算法推送的内容存在质量问题,于是开始结合人工干预来提高内容质量。这表明,尽管算法在自动化和数据处理方面表现出色,但在某些情况下,人类的判断和经验仍然是不可或缺的。算法并非万能,它不能替代人类的所有决策。
另一个引人瞩目的智能助手领域正在经历转变。以Siri为代表的智能助手曾描绘出一个美好的未来,只需对着麦克风轻轻一句,人工智能便为你打理一切,无论是订餐、购票还是查询赛事结果。为了保证服务的高准确率,现今的助手式生活服务已经转向人工处理的主力模式。就连Facebook最新推出的FacebookM也是以人工协助处理请求为主,模仿人的工作方式。看来,至少在相当长的一段时间内,算法与人工还是相辅相成,携手共进。
近日,剑桥大学实验室诞生了一台备受瞩目的机器人,被媒体誉为“生育机器”。它的“母体”是一只机械手臂,能够“孕育”出蓝色小立方块的“婴儿”,每个方块内都配备了一个独立的电动马达。尽管现代计算机之父冯诺依曼曾对机器人繁殖提出过深刻的见解,认为自我繁殖的系统应具备两个基本功能,但这台机器人似乎并不完全符合“繁殖”的定义。即使未来真的出现了能像病毒一样传播的人工智能,其影响力也将受到限制,因为具有毁灭性的计算机需要实体存在。人工智能专家JeffHawkins曾指出:“你能想象它自主建立一个工厂并不断地制造更多机器人吗?”
近期发生的一起事件让人们再次关注到机器人的安全性问题。在德国大众汽车的一家外包工厂里,一台用于流水线作业的机器人成为了公众关注的焦点。在作业过程中,这台机械手臂突然抓住了一名人类工人,导致后者受重伤并死亡。尽管人们看到了“机器人”的新闻标题,以及对科技名人“人工智能”的引用,但这起事件实际上是由于人为操作失误导致的。的机器人虽然能够自主完成动作,但它们距离真正意义上的“人工智能”还有很大的差距。自1979年第一起记录在案的工厂机器人致死事件发生以来,这类事件平均每年发生不到一起,相较于车祸来说并不值得过分关注。
在人工智能领域,日本知名专家石黑浩致力于打造接近人类形象的机器人,甚至复制了自己的形象。我们或许幻想拥有一个和人类伴侣一模一样的机器人伴侣,但不要指望他们会做家务,因为在达到完美仿真之前,你可能会先被他们的形象吓到。根据“恐怖谷”理论,当机器人达到100%的人类相似度时,人类的反应会是积极正面的。但在现阶段,“像又不完全像”的机器人,如石黑浩所创造的,可能会让人产生恐怖的感觉,仿佛面对行尸走肉一般。
谈及人工智能,有人提到了阿西莫夫的三定律——著名的科幻小说中的未来基本规律。让机器决定人的生死并不是轻松的事情。全球已经有超过30个国家配备了“致命性自主武器系统”,未来某些战争区域可能会由人工智能自主决定是否射杀屏幕上的运动物体。从军队的角度来看,人工智能决定生死具有诸多优势,比如坚决执行任务、不存在负罪感等。完全由人工智能决定生死意味着不再需要无人机操作员扣动,但这也无疑会引发许多争议。2013年5月,人工智能所涉及的道德、和人权问题首次被提到联合国人权理事会。尽管存在争议,但阿西莫夫的三定律并不一定是我们即将面对的未来。
拥有超过三十载人工智能研究经验的学者,Facebook人工智能领域的领军人物Yann LeCun博士,为我们揭示了深度学习的奥秘:构建一个学习机器,通过统一的训练方式让它掌握万物之知识。
训练系统的基础依然是海量的训练数据,这是许多初创公司在人工智能领域难以突破的关键。尽管海量的训练数据被看作是成功的重要保障,但即使拥有它,面临的挑战仍然存在。Google通过深度学习技术让机器识别猫的例子便是一个典型的例证。机器只能在猫面向镜头时准确识别,而对于其他角度或模糊状态的图像,识别效果则不尽如人意。
“将人工智能比作拥有神奇光环的大脑是一种危险的描述,”LeCun博士强调道,“这种描述虽然能够吸引投资机构的目光,给公众带来对未来的无限憧憬,但实际上我们距离这个目标还有很长的路要走。”
在现实中,人工智能的开发并非像科幻电影那样轻松简单。电影中的机器人似乎只需稍加改造就能迅速自我学习并成长为成熟的智能体。现实中的AI开发往往需要团队的协作和长时间的积累。单枪匹马地开发人工智能机器人是不现实的。正如Artificial Intelligence: A Modern Approach的作者Stuart Russell教授所言,开发人工智能是一个漫长而复杂的过程。关于上传意识的说法,Russell教授直接称之为“无稽之谈”,因为我们对“意识”本身的了解仍然非常有限。
一家人工智能创业公司宣称能利用技术复制人的记忆,让人以虚拟的形式实现永生。这只是基于社交网络、电子邮件等数据的模仿,真正的记忆移植仍然遥不可及。因为我们连大脑如何存储记忆都还不清楚,更不用说找到保存记忆的方法了。记忆究竟存在于大脑的哪个角落?我们是否真的能记住自己认为记住的那些事情?这些问题仍然困扰着科学家们。让我们更深入地思考这些问题,或许在未来的某一天,我们能找到答案。
人工智能培训
- 真正能和人交流的机器人什么时候实现
- 国产机器人成功完成首例远程冠脉介入手术
- 人工智能与第四次工业革命
- 未来30年的AI和物联网
- 新三板创新层公司东方水利新增专利授权:“一
- 发展人工智能是让人和机器更好地合作
- 新春贺喜! 经开区持续推进工业互联网平台建设
- 以工业机器人为桥 传统企业如何趟过智造这条河
- 山立滤芯SAGL-1HH SAGL-2HH
- 2015国际智能星创师大赛火热报名中!
- 未来机器人会咋看人类?递归神经网络之父-像蚂
- 成都新川人工智能创新中心二期主体结构封顶
- 斯坦德机器人完成数亿元人民币C轮融资,小米产
- 到2020年,智能手机将拥有十项AI功能,有些可能
- 寻找AI机器人的增长“跳板”:老龄化为支点的产
- 力升高科耐高温消防机器人参加某支队性能测试