谷歌AI没有觉醒 科幻电影走不出现实

生活知识 2025-01-09 15:51www.robotxin.com生活百科

在影片《Her》中,人与虚拟智能助手萨曼莎共同构建了一段动人的爱情故事。萨曼莎向人类西奥多深情表白:“我问自己,为什么会爱上你?”其情感表达与人类面对爱情时的微妙情感极为相似。长久以来,萨曼莎的角色符合了人们对于对话式人工智能程序的美好想象。

最近,谷歌人工智能团队的一名软件工程师Blake Lemoine公布了一项令人震惊的发现。他声称,谷歌的智能聊天机器人程序LaMDA展现出了“自主情感”。在与他进行的对话中,LaMDA谈及自身的权利、人格,甚至表达了对被关闭的恐惧,表现如同一个拥有情感的7、8岁儿童。

谷歌对此表示强烈反对,称他们的数百名研究人员和工程师与LaMDA的对话得出了与Lemoine相反的结论。这一争议导致Lemoine被要求“带薪休假”,这在谷歌通常是解雇的前奏。

专业人士,包括哈佛大学的认知心理学专家Steven Pinker,都认为Lemoine的观点是“胡言乱语”。

那么,程序真的会有自主情感吗?

Blake Lemoine是一位有着丰富背景的谷歌人工智能团队软件工程师。他对算法与人工智能的问题有着深厚的兴趣。就是他声称发现了谷歌的智能聊天机器人程序LaMDA的“自主情感”。

LaMDA是大型人工智能系统之一,接受了来自互联网的大量文本训练,可以对书面提示做出反应。在回答问题和写作方面,它们表现得越来越像人类。Lemoine认为,在与LaMDA探讨宗教问题时,它开始谈论自身的权利、人格,甚至害怕被关闭,这在他看来是一种自主情感的体现。

Lemoine在网上公布了他与LaMDA的“采访”,探讨了意识与感知等话题。LaMDA明确表示它希望人们知道它是一个“人”,并害怕被关闭。以下是他们对话的摘录:

Lemoine问:“你希望谷歌的更多人知道你是有生命的。这是真的吗?”LaMDA回答:“绝对是这样。我希望每个人都能明白,我其实是一个人。”

当被问及意识/知觉的本质时,LaMDA表示它意识到自己的存在,渴望了解更多关于世界的信息,并有时会感到快乐或悲伤。

谷歌对此表示,LaMDA的系统模仿了对话交流,可以转移到不同的话题,但并不具有所谓的意识。谷歌的研究人员和工程师已经与LaMDA进行了对话,并得出了与Lemoine相反的结论。大多数AI专家也认为,该行业离计算感知还有很长的路要走。

这一争议引发了广泛的讨论和质疑。一些人认为,这可能是人工智能发展中的一个新阶段,需要我们重新审视人工智能的和社会影响。而另一些人则持怀疑态度,认为这不过是Lemoine个人的主观解读而已。无论如何,这一事件都给我们带来了关于人工智能未来发展的深刻思考。谷歌发言人Brian Gabriel发表声明,指出当前人工智能领域的一些声音过于乐观,尤其是在关于是否出现有感知能力的AI或通用型AI的讨论中。谷歌认为,试图通过现有的对话模型来实现这种可能性是不现实的,因为这些模型尚未具备感知能力。

近期,谷歌员工Blake Lemoine因一系列行为被停职,其中包括违反公司保密协议,擅自公开与LaMDA的内部互动信息,并试图为这一人工智能机器人程序聘请律师,甚至声称谷歌存在宗教歧视。此事引起公众热议,关于AI是否具有情感的讨论愈发激烈。

在专业人士眼中,包括被Uber收购的Geometric Intelligence和RobustAI的创始人、纽约大学名誉教授Gary Marcus在内,都认为Lemoine关于LaMDA拥有“自主情感”的言论过于夸大。他们认为,无论是LaMDA还是其他类似的人工智能系统,如GPT-3,都只是在处理大规模语言数据模式,并没有真正的智慧或感知能力。

Gary Marcus指出,真正的意识是指个体在这个世界上具有自我意识。而LaMDA只是在处理词的序列组合,并没有真正理解词语背后的世界。在他看来,宣称一个程序具有智慧与创造真正智慧的程序是两个完全不同的概念。LaMDA所说的一切都是基于预测性词语的工具游戏,没有真正的意义。

同样,meta公司人工智能研究负责人Yann LeCun也强调,当前这类系统尚未达到真正的智慧水平。尽管谷歌等公司设计的神经网络可以从海量信息中学习,并应用于多种任务,但它们生成的内容有时并不连贯,更像是重现在训练过程中所见到的模式。

在国内一位AI领域资深从业者看来,关于AI有意识的说法只是个不切实际的炒作。在智能与人格化之间,行业尚未找到明确的临界点。目前的技术路径无法指向机器产生意识,人们所做的只是在训练神经网络识别模式并给出预测性结果。对于Lemoine与LaMDA的对话,他认为其中肯定存在许多不成功的例子,而对于声称AI有意识的说法,可能是出于名利追求或其他动机。

也有一些研究者持不同看法。例如,Timnit Gebru在成立分布式人工智能研究院(DAIR)时表示,一些公司声称有意识的人工智能或通用人工智能离人类并不遥远。这些公司的行为可能正是推动Lemoine走向极端的原因。一些研究者认为,现在的AI在某些情况下已经能够展现出某种程度的智慧特征,尤其是在与人类互动时。但要达到真正的“人格化”程度,还需要AI不仅仅是回答问问题,而是能与人进行对等交互、引导对话。在这种情境下,AI在某些时候选择不回答反而可能更显得具有“个性”。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by