AI世界还缺点啥?牛津大学教授:现实世界
新智元报道,由学术头条撰写,桃子编辑。
新智元导读】
走进“无限猴子”的世界,一个迷人的理论在此悄然展开。所谓的“无限猴子定理”,是一个深含哲理的数学比喻,其中的“猴子”并非指真实的动物,而是一部能够产生无限随机字母序列的抽象设备。
这个定理的核心思想是:假设有一个猴子在打字机上随机按键,随着时间的推移,如果按键的时间达到无穷,那么几乎可以肯定的是,它将会打出任何指定的文字。想象一下,莎士比亚的全套著作,在无穷的随机敲击中,竟然可以被一只“猴子”打出,这听起来似乎有些荒诞,但却是数学世界中的真实存在。
在这个定理中,“几乎必然”是一个具有深刻含义的数学术语,它代表着在无限次的尝试中,事件发生的概率极其接近1。也就是说,尽管每次猴子按键都是随机的,但在无数次随机尝试后,它有可能打出任何特定的文字。
想象一下,一只黑猩猩随意敲击键盘,只要时间足够,似乎必然能够敲打出法国国家图书馆中的所有书籍。这一理论却揭示了一个深刻的道理:将庞大的有限数字视为无限的推断是错误的。即使我们设想可观测的宇宙中充斥着不断打字的猴子,它们打出《哈姆雷特》的概率仍然极其微小,远远小于1/10^183800。
即使给予无数只猴子无尽的时间,它们也无法理解吟游诗人诗意的措辞,无法欣赏文学的美妙。正如牛津大学计算机科学教授Michael Wooldridge所说,“人工智能(AI)亦是如此。”尽管AI可以处理海量的数据,进行复杂的学习与模拟,但它依然无法拥有真正的理解力与创造力,无法像人类一样欣赏美、感受情感。
迈克尔·伍德里奇(Michael Wooldridge)指出,尽管GPT-3等人工智能模型通过数十亿甚至数百亿的参数表现出了惊人的能力,但他们真正的问题不在于处理能力的规模,而在于他们缺乏现实世界的亲身体验。
以语言模型为例,他们可能通过学习得出“雨是湿的”这一结论,并能在被问及雨是湿的还是干的问题时给出正确的回答。与人类不同的是,这些语言模型从未真正体验过“潮湿”的感觉。“湿”对他们来说,仅仅是一个符号,仅仅经常与“雨”等词语一起出现。
伍德里奇也强调说,人工智能模型缺乏现实物理世界的知识并不意味着他们是无用的,也不会阻止他们在某一领域成为经验专家。但在理解等方面,如果我们期待人工智能模型具备与人类相同的能力,那么这种可能性确实值得怀疑。
他的观点富有深度,指出人工智能虽然已经在技术和算法上取得了巨大进步,但在理解和体验现实世界方面,仍然存在一定的局限性。这并不意味着人工智能的未来黯淡无光,只是我们需要清醒地认识到他们的能力边界,并在适当的领域发挥他们的优势。相关研究论文《What Is Missing from Contemporary AI? The World》已在《智能计算》杂志上发表。文章探讨了当代人工智能发展中的一个重要话题:在当前的AI创新浪潮中,数据和算力已成为AI系统成功的基础。AI模型的能力与其规模、训练资源和数据规模紧密相关。
DeepMind研究科学家Richard S. Sutton也曾指出,AI的进步主要依赖于使用越来越大的数据集和越来越多的计算资源,这可以说是AI的“必经之路”。尽管如此,这也带来了一些“惨痛教训”。
可以说,现代AI的发展已经进入了一个全新的阶段,其背后的推动力正是数据和算力的不断进步。随着技术的不断发展,我们有理由相信,AI将在未来展现出更加强大的能力,为人类带来更多的惊喜和突破。AI的创意与局限:从虚拟到现实的探索之旅
随着科技的飞速发展,AI已经成为我们生活中不可或缺的一部分。谈及AI行业的整体发展,Wooldridge给出了高度评价。他表示:“在过去的15年里,AI,尤其是机器学习(ML)领域的发展速度,让我一次又一次感到震惊。我们不断调整预期,试图探索什么是可能的,以及何时能够实现。”
正如一枚有两面,AI行业的繁荣背后也存在隐忧。尽管AI的成就令人瞩目,但Wooldridge却指出了其存在的关键问题。他提到:“尽管大型ML模型的成就令人称赞,但它们受到一个关键因素的限制:这些AI模型并未真正体验过现实世界。”
在Wooldridge眼中,许多ML模型主要是在电子游戏等虚拟世界中构建和训练的。虽然它们能够在海量数据集上进行有效的学习,但当涉及到现实世界的应用时,这些模型往往会丢失重要信息。他进一步解释:“它们只是在虚拟环境中运作的AI系统,一旦进入真实的物理世界,就显得无所适从。”
尽管如此,AI的未来发展仍然充满希望。随着技术的不断进步和研究的深入,我们期待AI能够更好地融入现实世界,为我们带来更多的便利和创新。毕竟,AI的潜力是无穷的,它将继续在我们的生活中发挥重要作用,创造出更多可能。以自动驾驶汽车的人工智能为例,尽管在虚拟世界中模拟驾驶环境为研究人员提供了极大的便利,但将其直接应用于现实道路却存在诸多挑战。实际上,让自动驾驶汽车在真实道路上自行学习并不现实。研究人员更倾向于在虚拟环境中构建和测试他们的模型。即便是经过精心设计和测试的模型,「它们在没有经过现实世界考验的情况下,无法适应所有重要的环境。」著名专家Wooldridge这样说道。也就是说,虚拟世界中的模型仍需要在现实世界中进行验证和优化。
与此语言AI模型也面临着类似的困境。从最初可能产生荒唐可怕的预测文本,到现在谷歌的LAMDA模型的出现,虽然语言AI的进化取得了显著的进步,但仍有许多挑战需要克服。今年早些时候,一位前谷歌工程师宣称LAMDA具有某种程度的“知觉”,这一言论甚至成为了热点新闻。这也意味着语言AI的发展仍有许多未知领域等待探索和研究。尽管取得了巨大的进步,但AI模型仍然需要在实际环境中进行训练和验证,以确保其在现实世界中的表现和适应性。这也引发了关于人工智能是否具有自我意识等深层次问题的讨论和思考。「无论这位工程师的评价如何,LAMDA的对话能力无疑给他留下了深刻的印象,而这背后有其深厚的实力支撑,」Wooldridge指出。他同样强调,他并不认为LAMDA已经具备知觉能力,并且现今的AI技术也尚未触及这样的里程碑。
「这些基础模型在自然语言生成领域展示了前所未有的能力。它们不仅能生成相当自然的文本片段,似乎还掌握了一定的常识性推理能力。这无疑标志着过去60年AI研究的一大飞跃。」
这些AI模型的运作依赖于海量的参数输入以及通过训练获取的理解力。以GPT-3为例,它摄取互联网上数百亿级的英语文本进行深度学习。庞大的训练数据集与强大的计算能力相结合,让这些AI模型在应对复杂任务时表现得如同人类的大脑一般灵活。它们不仅能应对特定的狭窄任务,更能识别出潜在的模式,并建立看似与主要任务无关的联系。这种能力使得这些AI模型在自然语言处理领域展现出前所未有的实力和潜力。来源:OpenAI
Wooldridge 提出了不同的观点。他认为基础模型是一场赌注。这些模型通过基于海量数据的训练,获得了在一系列领域中有用的能力,并可以针对特定应用进行深入优化。
Wooldridge 指出,“符号人工智能(symbolic AI)是建立在‘智能主要是知识问题’的假设之上,而基础模型则是基于‘智能主要是数据问题’的假设。”这意味着,只要在大模型中输入足够的训练数据,就有可能提高模型的能力。
Wooldridge 也警告说,这种“可能即正确”的方法虽然不断扩大 AI 模型的规模,但却忽略了推进 AI 所需的重要现实——物理世界的知识。他认为,为了创造更智能的 AI,不仅需要数据和算法,还需要对现实世界有深入的了解和认识。
换句话说,虽然数据和算法为 AI 提供了强大的能力,但要实现真正的智能,还需要将 AI 与现实世界的物理知识和常识相结合。只有这样,AI 才能更好地理解并适应现实世界,从而实现更高级别的智能化。见证变革:AI正在步入物理世界的起点
Wooldridge提出了一个引人深思的观点,他指出一些迹象显示现状正在发生改变。就在今年五月,DeepMind推出的基于大型语言集和机器人数据的基础模型Gato,能够在简单的物理环境中运行,这无疑是AI领域的一大进步。
Gato的成功让人们对AI的发展充满了期待,但Wooldridge也提醒大家保持冷静。他认为虽然基础模型已经进入物理世界的第一步,但这仅仅是前进的微小步伐。要让AI在我们的世界中自如工作,还需要克服众多挑战,这些挑战甚至不亚于在模拟环境中使用AI所面临的难题。技术的道路漫长且充满未知,我们需要持续探索和创新。
论文的结尾,Wooldridge这样写道:“我们并未走向AI道路的尽头,但可能已经走到了这条路的起点尽头。”这句话引人深思,提醒我们在人工智能的征途上,虽然有所成就,但还有更长的路要走,更大的挑战要面对。
那么,您如何看待这一变革?AI的未来将如何发展?欢迎在评论区畅所欲言,一同探讨人工智能的无限可能。