科学家:须建立道德和伦理委员会掌控人工

智能机器人 2025-03-30 06:15www.robotxin.com人工智能机器人网

悉尼大学的两位专家徐东教授与麦克哈尔讲师对此发出警告,指出我们必须建立“道德和委员会”,以便掌控人工智能的发展,否则我们可能会对其失去抵抗能力。

近日,世界围棋赛冠军在人机大战中的惨败重新引发了人们对人工智能(AI)未来的担忧。徐东教授的研究领域包括计算机视觉和多媒体内容分析,他强调,当前的核心问题是,我们应该对人工智能中的自我学习进行何种程度的控制。

徐教授表示,科学家们和科技界的投资者对人工智能的热情早已燃起,而超级计算机在围棋等竞技游戏中的出色表现终于让公众认识到了其能力。这无疑是科技界的一大突破。随着人工智能的发展,我们必须认识到其潜在的风险。

徐东认为,超级计算机在某些方面比人类思维更强大。例如,围棋这样的竞技游戏虽然涉及复杂的规则,但对一台电脑来说却易如反掌。电脑一旦掌握了这些规则,便会擅长此类游戏。相比之下,人类玩家可能受到情绪的影响,如压力和喜悦,而电脑则不会。尽管一个人在一年内可能记住一千局棋谱,但计算机可以记住数万甚至数十万局。超级计算机还能随时进行自我改进。如果它输了一局,便会深入分析并努力在下一次做得更好。

徐东强调,如果超级计算机能够完全模仿人类的大脑,拥有愤怒、悲伤等人类情绪,那么情况将更为危险。我们需要建立“道德和委员会”,以确保人工智能的发展不会走向错误的方向。对于谷歌、Facebook等公司而言,这样的委员会尤为重要,以确保他们发明的机器不会做出任何带有恶意的事情。

麦克哈尔讲师也对此表示赞同。他花了多年时间研究围棋背后的人工智能,指出这是今天最复杂的游戏之一。与拥有有限可能棋局的国际象棋相比,围棋的棋局可能性甚至超过了宇宙中的原子数量。哈尔还表示,现在人工智能已经发展到了在简单和复杂的任务中都能智胜人类的阶段,这是一个需要引起我们高度关注的阶段。因为未来人工智能可能被应用于防御领域,甚至有可能在操纵过程中不再需要人类参与,即成为真正自主的人工智能。“道德和委员会”的建立显得尤为重要和紧迫。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by