当前人工智能背后的巨大幻像:不能通过类比进

人工智能 2019-08-15 18:40www.robotxin.com人工智能专业

美国最近签署的一项确立了“美国人工智能倡议”(American AI Initiative)的行政命令,将人工智能确立为美国竞争力和国防的核心。,目前还不清楚人工智能是否达到了许多人声称的那样“智能”的地步。事实上,目前的技术所展现的证据还不能让人信服,因其远远未达到“智能”的标准。
 
  若想在人工智能领域处于领先地位,最好的办法是采取一种更贴近人类学习方式的战略,这样等到人工智能领域羽翼丰满之时,才能走向随之而来的通往经济增长和广泛社会效益的最佳道路。
 
  这是大多数深度学习神经网络所面临的挑战。深度学习神经网络反映了人工智能的主流方法称这些网络具有“深度”和“智能”,则假设了它们在网络越来越深的层次上实现了呈现越来越抽象和有意义的数据。它进一步假设,在某种程度上,深度学习神经网络超越了死记硬背,获得了真正的认知或智力。但事实并非如此。
 
  以深度神经网络在基准图像分类任务上取得了惊人性能改进的计算机视觉为例,假设我们给计算机视觉算法下达一个任务正确标识猫和狗的图像。如果该算法可以正确标识,那么我们可能就会得出结论,认为深度神经网络已经学会如何了区分猫和狗。
 
  现在假设在上述情况中,所有的狗都戴了闪亮的金属狗牌,没有猫戴猫牌。这样的话,最可能情况是,深度神经网络根本没有学会区分猫和狗,只是学会了检测出闪亮的金属牌。最近的研究表明,实际上是这样类似的情况在支持深度神经网络在计算机视觉任务中的表现。具体解释起来可能不像闪亮的金属牌那样浅显,但大多数学术数据集都包含类似的无意线索,而深度学习算法则会利用这些线索。
 
  利用设计来挫败神经网络的对抗性例子,进一步提供了更令人不安的证据,证明深度神经网络可能根本就不是在“识别”,而只是在检测表面图像特征。简而言之,可以通过逆向运行相同的计算工具从而创建对抗性例子,来训练深度神经网络。研究人员发现,对图像进行人类察觉不到的细微修改后,就能“哄骗”深度神经网络,让它们在对图像进行分类时出错,而且往往是些根本性的错误。
 
  事实证明,这个问题属于计算误导的范畴。仅仅添加或删除几个像素就可以瓦解深度神经网络已经学会依赖的特定线索。更重要的是,这个错误表明深度神经网络依赖的表面图像特征通常缺乏意义,至少对人类来说是这样。
 
  这为不法分子利用有针对性的对抗性例子进行严重伤害行为创造了机会。例如,如果你指望自动驾驶汽车能够识别道路标志,或者安全系统能够识别指纹,那么你就麻烦了。
 
  最近在以色列由纳夫塔利(Naftali Tishby)领导的一项研究发现,深度神经网络会选择性地在每一层删除不重要的信息。一个训练有素的深度神经网络删掉了这么多信息,变得严重依赖几个关键的表面特征——“闪亮的金属牌”——它已经失去了所有可以称为“智能”的东西。与其说是深度学习,还不如说是深度遗忘。
 
  更糟糕的是,深度神经网络没有能力通过类比进行学习,而类比是所有智能的基础。例如,人类和其他动物通过类比来了解世界是由具有共同属性的物体组成的。无论是石头、苹果还是棒球,所有这些物体都会掉到地上,因为它们遵循在智力发展过程中凭直觉获知的物理定律。
 
  布朗大学的研究人员最近测试了深度神经网络是否可以通过类比来学习。研究小组发现,神经网络没有学到类比这个概念。在一组训练图像中,深度神经网络不是通过类比来学习联系相似图像的基本概念,而是简单地记忆一组模板来正确地标记训练图像。
 
  不能通过类比来学习,很难想象还有什么对深度学习的控诉会比这个更强烈了!从本质上说,所有的认知发展都建立在学习和概括一系列具体例子背后的原则的基础上。迄今为止,深度学习不能类比学习揭示了当前人工智能系统所呈现的智能表象背后的虚幻。
 
  我们经过了漫长而缓慢的认知发展过程,现在发展到专注于解决具有高商业或市场价值的特定任务,从而“剥夺”了人工智能以智能方式处理信息的能力。
 
  当真正的智能机器最终崛起时,它们将很可能不再是深度神经网络或其他当前人工智能算法中的任何一种。未来人工智能的发展将贯穿着模拟生物学的系统。就像它们的生物对手一样,智能机器必须通过类比来学习,以获得对周围物理现象的直观理解。为了进入这个未来,我们必须回到过去,给我们的机器一段婴儿期,在这段时间里,它可以跌跌撞撞地认识世界的结构,直到发现所有智能推理所依赖的凭直觉获得的物理规律。
<

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by