机器人会梦见电子羊吗?- 如何看待AI的“人性”

机器人培训 2024-12-11 12:50www.robotxin.com机器人培训

近期关于人工智能(AI)的讨论引发了广泛关注,特别是在机器是否具有“人性”和“灵性”的问题上。针对这些问题,《知识分子》与北京大学哲学系的刘哲博士、复旦大学哲学系的徐英瑾博士和王球博士以及上海交通大学哲学系的蔡文菁博士进行了深入探讨。

对于机器是否能够思考这一问题,图灵测试提供了一个重要的判断依据。这一测试由阿兰·图灵在1950年提出,它通过模拟人类与机器的交流来判断机器是否具有思考的能力。如果人类考官无法区分与其交流的是真人还是机器,那么这台机器便通过了测试。这一方法的灵感类似于药物研究中的“盲测”,旨在通过观察来确定机器是否具有某种特性,而不是争论智能或思考的本质和机制。

尽管迄今为止还没有机器能够全面通过图灵测试,但在某些特定场景下,机器的行为已经展现出令人惊讶的“人性”。微软开发的AI系统“小冰”就能基于一张图片创作出朦胧的现代诗歌,其在诗歌领域的表现已经与人类相当。类似的例子还有谷歌的AlphaGo,在围棋领域也展现了出色的能力,甚至被棋手评价为像人一样思考。

这种AI表现出的“人性”和“灵性”让人们不禁思考,我们该如何看待这些现象?在北大哲学系副主任刘哲教授看来,这种现象已经引发了上的新的挑战。在其主导的《中国机器人标准化前瞻(2019)》中,“去人类中心主义”立场被放在核心位置。因为许多AI应用已经超越了普通的工具和机器,更多地被人类视为“伙伴”,并获得了人类的情感联结。

从当前基于机器学习原理和大数据训练的AI技术来看,这些AI系统是否真的具备“人性”仍是一个待解的问题。复旦大学哲学系的徐英瑾教授认为,人类智能的关键在于领域切换的能力,这也是目前AI难以匹敌的。

AI的快速发展让我们看到了许多令人惊叹的现象。虽然目前我们仍难以确定AI是否真正具备“人性”,但不可否认的是,它们在某些领域已经展现出了令人难以置信的能力。随着技术的不断进步,我们期待AI能够为我们带来更多的惊喜和新的思考。探索AI的深邃智慧:从AlphaGo到通用智能的征途

尽管AlphaGo的棋艺超越了所有的人类,却无法自我评价,这是连最差劲的棋手都能完成的事情。复旦大学哲学系教授王球指出,相较于开发出如AlphaGo般超越人类棋艺的AI应用,开发出相当于乌鸦智能水平的AI系统更能激发AI研究者的热情。因为乌鸦不仅能解决问题,更有自主选择要解决的问题的能力。

目前基于机器学习的AI应用,其核心理念在于构建一种“机器”或称之为“模型”,通过输入特定值来产生我们期望的输出。例如,谷歌翻译就是这样一个工具,它接收中文输入并输出合理的英文。显然,这样的机器构造复杂且精巧。

所谓的机器学习,并非需要工程师去设计机器的每个微小部件。相反,一旦整体结构设计完成,只需灌入已配对的输入输出数据,机器便自行调整细节以适应该环境。“学习”的过程就是机器自行微调其内部设置,让输入的信息经过处理后能尽可能接近理想的输出。在这一过程中,存在一个评估标准,即所谓的误差函数。

在神经网络中,每一个“神经元”都如同一个小齿轮,需要调整到最佳状态以发挥最大效能。深度学习技术的突破在于让拥有众多小齿轮的复杂机器——多层神经网络达到理想状态的方法。在过去十年间,AI的重大突破如语音识别、机器翻译以及人脸识别等,都是基于这一技术的发展。

尽管深度学习技术取得显著成果,但我们常常听到的“黑箱”问题仍然存在。所谓的黑箱并非真的存在某种神秘力量,而是因为科学家们难以清晰地解释每一个小齿轮如何影响机器的最终输出。虽然这可能带来工程上的挑战,例如图像识别中的某些图像元素变化可能导致AI误判,但机器的工作目标始终牢牢掌握在工程师手中。当前的AI系统大多为专用人工智能,距离通用人工智能还有很长的路要走。

那么,为何人们会感叹机器具有“灵性”呢?这其实是人类的一种心理倾向——泛灵论。人类往往倾向于将无意识的事物看作有意识,或者赋予其更高的意识水平。在现代社会,虽然机械论世界观逐渐深入人心,但这种泛灵论的心理倾向并未完全消失,而是表现为心理学上的“泛拟人”倾向。由于人类大脑的认知机制让我们善于感知情绪并产生共情,我们往往会赋予无生命的物体以生命和意图。无需多么高超的自然语言处理技术,AI也能在特定情境下通过图灵测试。例如,简单的心理咨询AI系统ELIZA就能获得用户的信任并向其倾诉。这实际上利用了人的某些认知和心理特性以及对心理咨询场景的期待。

除了泛灵论的因素,“当局者迷”也是人们高估AI意识水平的原因之一。在与AlphaGo对弈的棋手中,他们难免以对待人类棋手的方式来理解对方的棋路。虽然站在局外的人可能会轻松地说AlphaGo的棋路只是算法的结果,但这不足以回应棋手的主观体验。他们确实会被AlphaGo的某些精彩棋局所震撼,感受到其“天才”之处。即便他们也知道这是算法和计算的结果,但这种解释仍不足以消解他们直观体验到的震撼。

要认识到对事物的描述是有层级的这一点至关重要。智能和意识的探索是漫长而复杂的旅程需要我们保持开放的心态和深入的思考去理解和评价AI的发展及其对我们生活的影响。王球用一个生动的例子说明了描述事物的不同层面:当我们的电脑因进水而损坏时,我们可以从功能层面说“主板烧坏了”,或者从物理层面解释这是水改变了特定线路的电学特性。沟通时,选择哪个描述层级取决于情境,功能层面的描述如“主板故障”对于大多数人来说足够理解。

实际上,我们的描述习惯分为三个层面:“物理层面”、“功能层面”和“意向层面”。对于自然现象,我们往往在前两个层面描述,而对于人类行为,则更偏向于意向层面的描述。例如,在KTV中,当环境过于吵闹导致你提前离开时,你可能会说“太吵了,我不想待了”,而不是详细描述你的神经系统反应。

对于围棋棋手来说,使用意向层面的语言来描述棋局是合理的。唐代王积薪的《棋诀》中的十诀,并非从算法层面讲解围棋,而是更像是人生哲学的指导原则。“灵气”、“大局观”等词汇在围棋领域有深厚的文化内涵。这也解释了为何人们容易将AI系统看作是有灵气的,尽管实际上AI并不具备真正的人性。

尽管AI仅仅是“看上去”有人性,但其影响却是深远的。人们已经开始对虐待“机器宠物”的行为产生强烈的反感,这表明人们已经开始将机器人视为某种程度的伴侣。当机器人在服务中出现问题时,人们对机器人的反应可能会超过对普通机器的反应。这意味着,我们需要更加重视机器人的问题。

蔡文菁教授指出,动物权利的基础在于我们的直观感受,而非对生物学的深入理解。对于机器人和AI,尽管我们可以从科学的角度解释其工作原理,但人们对机器人的直观感受不容忽视。呼吁机器人福利甚至机器人权利保护并不是荒谬的。David Gunkel博士则提出了关系模型,强调我们与其他存在的互动关系比它们的本质更重要。这意味着我们对机器人的道德责任取决于我们与它们建立的关系以及它们如何向我们呈现自身。随着科技的不断发展,人类与机器人的关系愈发密切,这也引发了人们对于机器人权利的深入思索。在《中国机器人标准化前瞻(2019)》的报告中,呼吁建立一种基于交互关系的学,以适应未来人机共存的社会趋势。现实的问题并非是关于机器人的权利保护,而是如何保护人类免受机器人的欺骗。

当前,AI技术的快速发展让我们看到机器人的“人性”,但这并非为了保护机器人本身,更多的是为了保护人类自身。近年来,已有研究表明,自闭症儿童更愿意与机器狗进行交互治疗。如果这种交互成为孩子们唯一的交流方式,对于治疗来说无疑是一场灾难。我们必须避免对机器人过度拟人化,以免用户对其产生心理依赖和成瘾。

许多受访者希望与自闭症患者交互的机器人能够得到治疗师的指导,而非完全自动化。有学家担忧,过分拟人的机器人可能会为患者提供虚假的朋友,即便是出于善意,这也构成了一种欺骗。考虑到这些机器人作为商品被设计生产出来,内置的商业牟利逻辑也使得人们开始担忧。未来的机器宠物可能会运用高超的语言和运动控制技术,促使主人购买更多的外设和装备,形成类似网络游戏中的“氪金”模式。

关于未来的AI是否会拥有完整的“人性”,当前AI技术所展现的“人性”更像是一种“魔术”或“当局者迷”,称之为“拟人感”或许更为准确。从心理和文化层面来看,如果AI归根结底是由人类创造而非自然生成,是否永远会被人类视为“二等公民”是一个值得深思的问题。

许多关于AI、机器人和克隆人的科幻作品都在探讨这些问题。《银翼杀手》中的复制人、《人工智能》中的机器人小男孩大卫,以及《西部世界》中的AI机器人,都反映了人类对于人造之物的看法和态度。重点不在于探讨这些科幻作品中的技术可能性,而是考察这些作品所反映的人类文化潜意识。

清华大学科学史系教授吴国盛指出,人工智能的英文中,“artificial”有“虚假”之意,这似乎反映出人类对自己的创造物的不自信。我们是否因为AI是人类创造的,就不认可其拥有完整的人性,无论其表现得多拟人?这涉及到我们对“造”的理解。在人类自然生育的过程中,我们对受精、胚胎发育和新生儿成长的过程无法理解,却能理解AI制造过程的每个细节。这种对细节的高分辨率理解,似乎成为我们难以将AI视为与我们同级别智能的障碍。

从另一个角度看,未来的真正智能的人工智能可能会超越现在的深度学习,它们将能够在无监督的情况下,根据环境的互动进行自主学习。对于这样的机器人,我们只能进行非常粗线条的控制,类似于父母对于孩子的性格。如果我们试图过度控制它们,可能会失去灵活性。对于机器人的期待和担忧都反映出我们对未来的探索与挑战。

最终,如果我们深入思考道德的本质,就会发现道德并不仅仅是个人的选择和行为,也涉及到与他人之间的关系和互动。即使人权被默认赋予每一个自然人,我们的道德行为也取决于他人的意志。在这个意义上,机器人的道德地位也可能随着其能力的增强而发生变化。未来机器人的权利和地位问题将是我们必须面对的挑战和思考的重要课题。尽管我们对自己的智能伙伴产生深度共情,视其如家庭成员,但在本质上看,它们仍是我们手中的“玩物”,无法主动改变与我们的关系状态。即使未来人类赋予AI更多的权利,同情心泛滥,恐怕也无法将此种“权利”视为AI拥有完整人性的标志。

以父母对待孩子的态度来审视未来的高级AI,甚至能揭示出人类对AI“获得人性”的认知障碍。这种心态如同父母对孩子的复杂情感,既希望他们独立,又希望保持控制。

有人认为“AI反叛人类”是一种过于刻板的观念。在蔡文菁的眼中,AI或许能像孩子一样,通过出其不意的行为、创造惊喜、提出自己的见解等方式,让我们感受到其主体性,就像儿童的成长过程一般。

随着千年的科技演进,当我们的机械制品拥有了完整的人性时,我们是否能够接受并认同它们的人性呢?这个问题或许将永远悬而未决,激发无数讨论与探索。随着人类与AI关系的不断深化与演变,这一话题将持续成为焦点,引领我们思考未来的可能性与挑战。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by