这个问题似乎并不难。正如位于达特茅斯的科学家写道“如果让一组精心挑选的科学家在整个夏天的时间里坐在一起商讨,我们认为他们可以在一个或多个这些问题上取得重大进展。”我想顺便说一下的是,这项研究提案中包含了人工智能一词最早使用的部分。他们对此有许多想法,例如模拟人类大脑的神经元模式可以实现和教给机器关于人类语言的抽象规则的重要性。
科学家对此持乐观的态度,并且不出意外的是,他们的努力最终得到了回报。 在这之前,他们有能理解理解人类语言的计算机程序,而它可以解决代数问题。而人们很自信地预测,在未来二十年内,人类将会建造出一个人工智能机器。
我们可以预测的是,在人工智能产业出现之后不久,真正的仿生人工也将会出现,并且与我们越来越像。事实上,它的推测可以从图灵关于“思维机器”的第一篇论文中说起,他在论文中预测说,图灵测试(一种能让人类相信机器有着人类特性的测试)将在50年之后得到正式通过,这种机器有可能在2000年左右出现。,在现在人们,例如著名的科学家Ray Kurzeil,仍然在预测未来20年内人工智能可能会发生的进展。在当今很多不同的专家和分析调查里,你几乎想知道人工智能研究人员是不是仅仅试图给出一种自动答复“我早就知道了你即将要问的问题了,不或者是,我不能真正预测到你要说的。”
试图预测人类同级别的人工智能出现的确切日期的问题在于我们实际上根本不知道实现该目标还有多远。这不像摩尔定律。摩尔定律讲的是每两年机器在信息处理能力可以翻一倍,这可以对一个非常具体的现象做出非常具体的预测。从中我们可以大致了解如何达到目标,例如改进硅晶圆的工程设计我们知道我们并不处于我们目前方法的基本限制(至少,直到您尝试在原子尺度上改造芯片)。但人工智能和我们以上所说的不能进行类比,它们是完全不一样的东西。
常见的错误
Stuart Armstrong的调查研究了关于人工智能发展趋势的这些预测。具体来说,他主要在寻找两个主要的认知偏差。是人工智能专家预测真正的人工智能会在他们死亡之前出现(并使他们避免死亡)。这就是人们对Kurzeil所提出的“书呆子的狂怒”的批评,因为他们认为Kurzeil的这类预言是出于对死亡的恐惧,对生命不朽的渴望,而且根本上是非理性的。这使创造超级智能的能力被视为一种有着个人信仰的项目。,这里也有来自人工智能发展领域工作人员对于当今人工智能所遇到的的挫折和局限性的批判意见。
,人们大部分认为15到20年的时间内真正的人工智能将会出现在大众视野内。这个时间段其实足以让人们相信,他们正在做一些可以很快证明是新一次革命的东西(人们对努力循规蹈矩的东西印象不会很深刻,几个世纪以来都是如此),而且目前为止并没有说这些证明是错误的。在这两种偏差中,Armstrong研究中对于后者拥有比较多的数据信息?- 人们非常乐意选择在死亡后预测人工智能的发展趋势,尽管大多数人不这样做,但在历史上的预测中存在明确的“15-20年后”偏差。
衡量进展
Armstrong指出,如果你想评估一种具体的预测的可行性,在这之前有很多参数你可以进行参考。例如,通过模拟人脑来开发人类智能的想法至少会为您提供一个清晰的途径,让您评估进展。每当我们得到更详细的大脑地图,或者成功模拟另一部分大脑时,我们就可以看出,我们正朝着这个最终目标前进,而这个目标可能在人类级别的人工智能出现之后最终达成。在这条道路上我们可能不到20年就可以走完,但至少我们可以用科学的方法评估进展来巩固这些。
如果一个网络足够复杂且给予足够的处理能力就会“出现”人工智能的人相比,这可能是我们想象的进化过程中出现的人类智能和所谓的“意识” -- 尽管人类的进化已有数十亿年,而不仅仅是数十年。但问题在于我们从来没有经验证据我们从来没有见过意识从一个复杂的网络中体现出来。我们不仅不知道这是否可能,我们也不知道我们距离它有多远,因为我们甚至无法衡量它的发展潜力与价值。
要理解哪些任务对于人工智能的发展来说是艰难的,从其诞生之日直到今天甚至以后还有很长的路要走。只要看一下原来的研究方案,从理解人类的语言,到随机性和创造性,以及自我完善能力都是可以进行相提并论的。我们有很好的自然语言处理,我们的计算机能理解他们正在处理什么吗?我们有人工智能,它可以随机变化是“创意”,但它本身具有创造性吗?奇点往往依赖的那种指数式的自我改善过程似乎距离目标很遥远。
我们也很难理解智能的含义。例如,AI专家一直低估人工智能下围棋的能力。许多人认为,无论是在2015年,甚至到2027年人类仍旧会探寻此问题。但仅仅花了两年,而不是十二年。这是否意味着人工智能能够写出“伟大的美国小说”呢?这是否意味着更接近于从概念上理解周围的世界呢?或者说这是否意味着它更接近我们所说的人类级别的智能体?这些暂且无法解释清楚。
不是人类,但比人类更聪明
但也许我们一直在错误的角度上看待这类问题。例如,图灵测试还没有通过,人工智能在谈话中无法说服人类其是能与人类相似的智能体。还有计算能力,也许很快就能执行模式识别和驾驶汽车等其他任务的能力远远超过人的水平。由于“较弱”的人工智能算法做出更多的决定,物联网传播者和技术乐观主义者试图找到更多的方法来提供更多的数据或者更多的算法,所以这种“人工智能”对社会的影响只能是增长的趋势。
也许我们还没有对人类智能定下相关的管理机制,那是因为我们也不知道我们能用现有的算法影响它多久。国家自动化将会扰乱社会并从根本上改变关于它的危险调查,因为我们对于一些含糊不清的超级智能做出相关举动的假设并不多。
那么有些人指出我们应该为其他原因担心人工智能的诞生。只是因为我们不能确定人类同等级别的人工智能是否会在本世纪被开发出来,或者说它永远不会存在于我们的生活中,但这并不意味着我们不应该为关于对其乐观的预测结果是正确的可能性做准备。我们需要确保将人的价值观编入这些算法中,以便他们理解人生的价值,并以正确的品行道德为标准的方式行事。
《未来人类繁荣计划》的作者菲尔·托雷斯(Phil Torres)在接受我的采访时表达了这一点。他指出,如果我们突然决定将智能融入我们生活,作为一个不断发展的社会,我们在未来必须解决关于此类道德问题(决定将机器融入我们生活的对与错)。而我们到时候可以做到这一点吗?
所以,我们应该对这些预测提出质疑。并且请记住,人工智能的先驱所预见的问题比预期的要复杂得多,在今天也是如此。,我们不能对人工智能的出现没有准备。我们应该了解风险,并采取预防措施。当那些科学家们1956年在达特茅斯大学举行合作会谈时,他们不知道他们未来会面对什么。而在六十年后,我们仍不知道在人工智能的发展道路上要走多远。我们确定的事,我们会在其中到达某个地方,在那个时候,我们需要共同努力和思考来迎接它的到来。