科学家警告说,人类将无法控制人工智能
人工智能的进展如同一场道德试炼的战场,尤其是关于人类是否能够驾驭自主机器的问题。随着越来越多的家庭和工作场所被人工智能驱动的机器人接管家务和驾驶车辆(比如亚马逊的无人配送车),虽然这类技术让我们的生活更加便捷,但背后潜藏的复杂性也让人们感到不安。
一支国际研究团队对此发出警告,创建过于强大且独立的软件存在潜在风险。科学家们通过一系列理论计算,试图如何控制人工智能的发展。他们在《人工智能研究门户杂志》发表的研究报告中得出的结论是——我们无法完全控制高级人工智能。
这项研究的合著者曼努埃尔塞布赖恩在马克斯普朗克人类发展研究所表示,“控制世界的超级智能机器听起来像科幻小说。现实中已有一些机器能够独立执行某些重要任务,而程序员却不能完全理解它们是如何学习的。这种情况可能会导致我们无法控制它们,对人类构成危险。”
科学家们尝试两种控制人工智能的方法,但均面临挑战。第一种方法是将人工智能与互联网和其他设备隔离,以限制其与外界的联系。这样做会大大降低人工智能执行其被设计的功能的能力。另一种方法是设计一种“理论上的遏制算法”,以确保人工智能在任何情况下都不会伤害人类。对当前计算范式的分析表明,无法创建这样的算法。
另一位研究人员Iyad Rahan解释道,“如果将问题分解为理论计算的基本规则,我们会发现指示AI不要破坏世界的算法可能会无意中阻止其自身运行。我们不知道遏制算法是否会继续分析威胁,或者是否会停止遏制有害的AI。实际上,这使遏制算法无法使用。”
基于这些理论计算,问题在于没有算法能够确定AI是否会损害世界。研究人员还指出,人类甚至可能不知道什么时候超级智能机器会出现,因为判断一种设备是否具有超越人类的智能与遏制问题是同一领域的难题。
面对这样的道德困境,我们必须深入思考人工智能的发展路径以及我们如何与之共处。我们需要找到一种平衡,既能充分利用人工智能的潜力,又能确保我们的道德和价值观不被颠覆。这是一个漫长而复杂的旅程,需要我们所有人的共同努力和智慧。