AI面临的挑战:无人车闯祸,我们该找谁?如何保证不再发生?
当人们问及我的职业时,我常常感到难以言喻。如果说“人工智能”似乎太过笼统,而“图像识别”又过于专业。真正让我困扰的问题是:
人工智能会主宰世界吗?
作为一名专注于机器智能研究的专家,这个问题让我有些烦恼。我理解那些对此持有怀疑态度的人,很多人对人工智能有一种神秘的感知,认为它像某种阴谋家,会最终取代人类。比如,在我们观看电影后,它就能预测我们下一步想看的影片。
但大多数人没有意识到的是,无论我们觉得自己多么独特、多么有个性,从广泛的角度来看,我们的行为都遵循一定的模式。经过足够的训练,计算机可以轻松地识别这些模式。机器可以推测你的音乐喜好,或者为你推荐手机应用。但这并不意味着所有的预测工作都具有相同的难度和性质。我希望大家能理解,这只是人类能力的一种延伸和扩展。
要理解当前人工智能领域的尖端技术,关键是要了解两个主要场景中机器学习表现得最好的部分:受控环境以及监督式学习。
我们以Google的围棋人工智能AlphaGo为例,它在围棋领域的表现超越了人类顶尖选手。实际上,在游戏领域,由于能够完全控制操作环境、行为和可能的结果,建模变得相对容易。一旦模型被建立,下一步就是模拟和学习。近年来,计算机硬件的发展使得大规模机器学习成为可能,这才使得AlphaGo等技术取得了重大突破。
监督式学习在受控环境中意味着每一个行为都能预期可能受到的反馈,从而有效地从错误中学习。游戏是一个完美的例子。另一个例子是电影预测,通过大量的用户数据样本,我们可以预测用户的观影选择。
在监督式受控环境中,我们知道会收到何种信息,并能够对类似的信息进行处理。我们可以为这些目标创建“表达法”,在需要预测时,这些“表达法”帮助我们确定准确的计算模型。这是与人类智能方式相似的通用学习类型的一个非常特定的子类。
大部分人类行为并非监督式的,而是在与环境交互中建立的逻辑和直觉。比如识别物体和理解物理过程,我们通常通过与事物的互动来学习新的知识。目前,计算机还很难达到这种水平。要让计算机识别图片中的汽车,需要告诉它去看那些图片,并告诉它汽车的特征。这是监督式学习的一个例子。
目前,计算机科学家正在努力使学习变得几乎无需监督,即非监督式学习。我们希望机器能够理解物体和场景的概念本身,而不需要特定的指导。大多数研究目前集中在非监督式学习上,这是更困难的问题。虽然机器看起来越来越聪明,但大多数情况仅限于监督式受控环境。我们必须先让机器人在非监督环境中正常工作,然后再考虑在更复杂的非受控环境中的运行。
虽然讨论机器取代人类或者机器人有“不良意图”还为时过早,但人工智能的潜在威胁正在悄然逼近,可能会带来极其严重的后果。在早期,人工智能的算法是通过观察特定特征来分割数据的决策树。在我导师的一次会议讨论中,他提出了一个问题,让我第一次真正质疑人工智能的可用性。那时的原型算法类似于测量人的身高和体重来判断是否超重。这是人工智能的早期应用之一,但随着技术的发展,其应用范围和复杂性也在不断增长。当代机器学习技术的深度探索
随着技术的发展,现今的机器已经能够进行高度复杂的运算。它们处理的数据不仅仅是简单的指令,更多的是高清晰度图片等大量复杂信息。对于这些数据的处理,普通的简单阈限或决策树方法已经无法满足需求。我们的系统开始采用深度学习算法,模仿人脑的工作方式,进行更为精细的模板识别和学习。
深度学习模型的结构复杂且引人入胜,它由许多相互连接的神经元构成,这些神经元类似于人脑中的神经细胞,互相传播信息。这种运作模式与人的思维方式颇为相似。
虽然这些系统的性能卓越,但它们的学习过程却相对漫长,需要大量的数据进行训练。一个令人困扰的问题是,我们并不知道机器是如何得出结果的,无论结果是否正确。
在机器学习的过程中,我们给予机器两组数据:特征和标签。特征是我们观察到的变量,而标签则是我们需要预测的结果。例如,在预测肥胖的例子中,人的身高和体重是特征,是否超重或健康是标签。而对于癌症检测,则是通过扫描图像来寻找癌症细胞。
机器学习算法会给每个特征分配权重,然后基于这些权重的总和做出决定。这就像我们预测一个苹果是否坏了,会根据它的气味、颜色和质感来分配不同的权重。
计算机遵循类似的逻辑,只不过权重的计算是通过优化算法完成的。但在深度学习中,我们并不清楚应该选择哪些特征,更不用说如何分配权重了。我们让计算机自己去学习,找出最佳的特征组合,以最佳的方式做出决定,模拟人脑的工作方式。
这个策略为我们带来了惊人的成果,特别是在计算机视觉领域。但随着我们应用深度学习处理更加复杂、风险更高的预测任务时,我们需要确保每个预测都是合理且可解释的。
设想你是一个银行,你使用复杂的深度学习算法来预测哪些客户可能会拖欠贷款。虽然算法可以给出高准确率的结果,但当你怀疑某个客户时,你并不清楚是什么导致了这一结果。对于预测的解释变得至关重要。
大部分的深度学习系统并不擅长解释其决策过程,这也是当前研究的热点。尽管我们在某些特定任务(如计算机视觉)上有了深入的理解,但我们仍需要进一步提高整体的解释性。
机器学习的一个显著问题是过拟合现象。为了区分信号和噪声,需要大量的手工处理。这意味着当模型过于完美地适应已知数据时,它可能并没有学习到真实世界的模式,而是学习了数据集的特定模式。这导致的结果是在实际应用中,模型的预测可能不够准确。
以一个简单的例子来说明过拟合:你在一个夏天的地方生活并因此只带夏天的衣服去阿姆斯特丹旅行结果冻得很冷因为不适应当地的寒冷天气这个模型也适合这个例子一个机器学习模型如果在其特定训练环境下学习到了过多噪声或不准确的数据结构并把它们当作真正的规律来适应新数据就会发生这种情况即所谓的过拟合关注这个问题的原因是为了强调可解释性的重要性如果不能理解机器学习模型学习到的知识我们很难判断模型是否出现了过拟合现象比如一个基于网络浏览历史预测可疑上网行为的机器学习模型它的决策过程就需要有明确的解释以便我们能了解它的预测是基于什么规则做出的以避免误判风险并增加预测的可信度总的来说深度学习和机器学习正处在一个充满挑战和机遇的发展阶段需要我们不断对其进行深入研究以实现更加精准可解释的决策过程从而推动科技的发展和社会的进步关于预测美国19岁少年的行为趋势,尽管我们的数据集主要聚焦于他们观看PewDiePie的视频等特定内容,但我们必须认识到这种预测的局限性。因为我们的模型主要是基于特定群体的数据训练而来,所以预测结果可能不适用于其他个体。这一点,随着深度学习在各个领域应用范围的扩大,尤其是预测任务方面的应用增加,其关注度也随之迅速提升。
在众多应用中,医疗图像预测是一个引人注目的例子。在这个领域,我们需要模型具备更高的可解释性和可理解性。因为涉及到人类健康和生命,任何预测结果都需要有充分的依据和解释。当预测任务规模巨大,无法人工一一核查时,我们需要有更强大的系统来辅助我们理解模型是如何做出预测的,并对其进行调整和优化。
虽然这个问题刚刚凸显出来,但已经引起了研究者的关注。我们需要投入更多的时间和精力去寻找解决方案。而且,我们必须清醒地意识到模型可解释性的重要性,尤其是在构建旨在改善人类生活的模型时。没有可解释性的模型就像一辆没有刹车系统的汽车,可能会带来无法预知的后果。
以一起车祸为例,如果有人类司机发生车祸,我们可以通过调查了解事故原因,可能是司机酒后驾驶、可能是路人分心等。但如果是无人驾驶汽车发生事故,导致乘客或其他路人受伤甚至死亡,我们该如何追责呢?如何确定事故的真正原因?如何确保类似的事故不会再次发生?
随着人工智能系统的广泛应用,这类问题可能会频繁出现。为了更好地应对和解决这些问题,我们需要深入理解问题的根源所在。这是当前人工智能领域面临的主要挑战之一。我们需要更多的研究和实践来推动人工智能的可解释性发展,以确保人工智能的普及和应用能够真正为人类带来福祉。
扫地机器人排行榜
- 杨幂刘恺威最新消息 罕见合体却无交流曝离婚是
- 华语青年电影周闭幕式暨推介盛典举行 影后吕星
- 好莱坞将拍盗墓笔记 女一号暂定李冰冰
- 什么是外套 女士外套有哪些款女士外套怎么挑毛
- 中国式相亲38岁剩女陈怡吟 惊人富二代家世遭曝
- 姜志燮电视剧女帝图片合集 看张申英与其陷入复
- 铃木砂羽揭演艺圈黑暗面 爆料有人陪睡换前途
- 自在天浩出品发行影视音乐大受好评 斩获多项殊
- 求婚剧组冬至温情 李程彬与粉丝共庆 冬至汤圆分
- 罗志祥展现救场神技,综艺界全能担当展现超强
- 电影小妇人曝原片片段 甜茶领衔锁定
- 资深制片人曝某男星骗嫩女陪睡
- 姜潮回应哭照九连拍 竟然还有百度百科你敢信吗
- 终于等到罗晋唐嫣再次合体 网友表示仿佛过了三
- 音乐传承与情怀兼具!纪军军包金花被淘汰引争议
- 独孤皇后恩爱帝后遭离间 网友情到深处成