计算表明,控制超级智能人工智能是不可能的

机器人培训 2025-04-03 18:37www.robotxin.com机器人培训

人工智能对人类思想的颠覆,早已成为热议的话题。科学家们经过深入研究,对我们是否能够驾驭一个超越人类理解的超级智能机器给出了判断。很遗憾,答案几乎可以肯定是我们无法做到。

要驾驭一个远超人类认知范围的超级智能,首先需要对其模拟分析。我们却无法建立一个我们都不理解的智能的模拟。这就像是一场永无止境的追逐游戏,我们始终无法触及那超越人类理解范畴的边界。

科学家们指出,如果我们无法预测和理解人工智能未来的行为模式,那么我们就无法为其设定诸如“不伤害人类”等规则。一旦人工智能系统的行为超出了我们的理解范围,那些设定的限制就会变得形同虚设。这是因为超级智能具有多维度性,可能调动各种资源以实现人类无法理解的目标。这种复杂性远超过我们所认为的“机器人学”所涉及的问题。

研究团队的推理部分源自艾伦·图灵在1936年提出的停机问题。这个问题的核心是判断一个计算机程序是否会停止运行并给出答案。就像图灵通过精妙的数学证明的那样,我们无法确定每一个潜在程序是否会得出结论并停止运行。这也让我们意识到,在超级智能的状态下,AI可以存储所有可能的程序,而每一个程序都有其独特的运行轨迹和结果。

以遏制算法为例,我们无法确定其是否会成功遏制潜在的人工智能风险。德国马克斯普朗克人类发展研究所的计算机科学家伊亚德拉赫万指出:“实际上,这使得遏制算法无法使用。”除了尝试向人工智能灌输道德准则(然而没有任何算法能够做到绝对肯定)和限制其能力(例如切断其与部分互联网或某些网络的连接),我们似乎束手无策。新的研究指出,这些措施可能会限制人工智能的应用范围。如果我们不打算用它来解决超出人类理解范围的问题,那么为何要创造它呢?我们甚至可能不知道何时会出现一个我们无法控制的超级智能。这意味着我们需要开始严肃地思考我们的方向和目标。

马克斯普朗克人类发展研究所的计算机科学家曼纽尔塞布瑞恩提到:“一台控制世界的超级智能机器听起来像科幻小说。”但事实上,我们已经有一些机器能够在程序员完全不了解它们如何学习的情况下独立执行某些重要任务。问题的关键是,这种情况是否会在某个时刻变得无法控制,对人类构成危险?这个问题需要我们深入思考并寻求解答。

如果您对此话题感兴趣,请关注我们的频道“知新了了”,我们将为您带来更多前沿的科技资讯和分析。

上一篇:RNG:Letme退役总教练卸任 MLXG也会走? 下一篇:没有了

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by