科学家:须建立道德和伦理委员会掌控人工
悉尼大学的两位专家徐东教授与麦克哈尔讲师对此发出警告,指出我们必须建立“道德和委员会”,以便掌控人工智能的发展,否则我们可能会对其失去抵抗能力。
近日,世界围棋赛冠军在人机大战中的惨败重新引发了人们对人工智能(AI)未来的担忧。徐东教授的研究领域包括计算机视觉和多媒体内容分析,他强调,当前的核心问题是,我们应该对人工智能中的自我学习进行何种程度的控制。
徐教授表示,科学家们和科技界的投资者对人工智能的热情早已燃起,而超级计算机在围棋等竞技游戏中的出色表现终于让公众认识到了其能力。这无疑是科技界的一大突破。随着人工智能的发展,我们必须认识到其潜在的风险。
徐东认为,超级计算机在某些方面比人类思维更强大。例如,围棋这样的竞技游戏虽然涉及复杂的规则,但对一台电脑来说却易如反掌。电脑一旦掌握了这些规则,便会擅长此类游戏。相比之下,人类玩家可能受到情绪的影响,如压力和喜悦,而电脑则不会。尽管一个人在一年内可能记住一千局棋谱,但计算机可以记住数万甚至数十万局。超级计算机还能随时进行自我改进。如果它输了一局,便会深入分析并努力在下一次做得更好。
徐东强调,如果超级计算机能够完全模仿人类的大脑,拥有愤怒、悲伤等人类情绪,那么情况将更为危险。我们需要建立“道德和委员会”,以确保人工智能的发展不会走向错误的方向。对于谷歌、Facebook等公司而言,这样的委员会尤为重要,以确保他们发明的机器不会做出任何带有恶意的事情。
麦克哈尔讲师也对此表示赞同。他花了多年时间研究围棋背后的人工智能,指出这是今天最复杂的游戏之一。与拥有有限可能棋局的国际象棋相比,围棋的棋局可能性甚至超过了宇宙中的原子数量。哈尔还表示,现在人工智能已经发展到了在简单和复杂的任务中都能智胜人类的阶段,这是一个需要引起我们高度关注的阶段。因为未来人工智能可能被应用于防御领域,甚至有可能在操纵过程中不再需要人类参与,即成为真正自主的人工智能。“道德和委员会”的建立显得尤为重要和紧迫。
工业机器人
- 科学家:须建立道德和伦理委员会掌控人工
- IBM上线深度学习即服务项目 帮助开发者缩短
- HDL智能机器人体验即将亮相北京智能家居建筑展
- 爱尔兰推出无人机交付 机器人课程招生
- 专家释疑无人机为何不飞行受阅:信号易被干扰
- 菜鸟智能物流骨干网发力马来西亚100万个榴莲月
- 美国人工智能预测判案结果准确率比法律专家更
- 2040年机器人犯罪率将超过人类 成大多数犯罪主体
- 国内首台500米以下水下机器人高新区研制成功
- 数据从制造走向智造中国制造逐步跨向
- E Ink获突破:为电子纸带来全色彩
- 中国机器人密度世界排名23位成长趋势迅速飙升
- 捕捉萌宝表情 全靠Lecoo倍爱宝晒娃神器
- 超能健康服务机器人 助力湖南数字新基建
- 国内首个柔性骨骼机器人亮相高交会 引来众多科
- LG总裁:AI终极目的不是识别命令 而是理解人类意