本文编译自the Guardian原标题为I'm a pacifist, so hy don't I support the Campaign to S Killer Robots的文章。
禁止杀伤性运动呼吁联合国禁止研发和使用自动武器无人监控下识别,追踪和攻击目标的自动武器。该运动组织者与一些著名AI研究员共同制作了一个轰动的,并于周一发布。 向我们展现了广泛使用自动武器所带来的反乌托邦式的未来。
我很高兴看到我的同事正在努力确保AI技术于有益于人类社会的领域。 ,我深刻怀疑这种止于形式的运动是否有效。 尽管我认为自己是绝对的和平主义者,但我对于签署这项禁令持保留态度。而我相信持保留态度的也绝非我一人。
,拥护这项禁令的国家都无法确定应该禁止自动化还是AI。,这项禁令又如何能够阻止反对它的国家使用自动武器。对于常规武器和核武器的禁令是有效的,这是由于天然的进入壁垒制造这些武器所需的原材料和设备很难获得,负责任的国家可以通过法令和制裁控制这些武器。相比之下,有些人可能会说AI的使用已经相当广泛,而且它还是自动武器的核心技术。 ,想通过法令和禁令控制这种武器难上加难 - 例如网络战争。
想想视频中描述的“杀手无人机”与the Guardian上呼吁禁令的文章。即使在今天,任何互联网访问者都可以重建无人机所需的人脸识别技术一些最先进的“预训练网络”都会成为公开资源。 随着技术的进一步发展,事情将变得更加容易。
AI的进入壁垒很低。即使联合国和一些国家同意这项禁令,也无法阻止其他反对这项禁令的国家采购和部署AI技术。 最终,最好的结果是禁令取得胜利,但禁令的拥护者会付出惨重的代价。而最坏的情况是禁令束缚了“好人”的手脚,“坏人”却仍然肆意妄为。
作为一名AI研究人员,我非常反感利用反乌托邦来渲染这整件事,就像the Guardian报道的这个视频。 这些视频让人感到不安。在我看来, 使用“雏菊女孩”式的运动宣传来激起人们对AI技术的恐惧,更像是为了点燃大众的情绪,而不是引发大众的思考。
鉴于对禁令有效性的担忧,AI研究人员应该寻找更积极的技术解决方案,以减少潜在的AI技术滥用。 例如,我们于2017年3月初在亚利桑那州立大学举办了一个研讨会,主题为“AI带来的挑战展望未来,消除隐患”。 许多着名的科学家,技术专家和伦理学家参加了这次研讨会,其目的就是讨论如何防止AI技术的滥用(包括致命自动武器)。
目前,研讨会的主题之一就是利用AI技术防范AI的恶意使用。 这可能包括所谓的“AI守卫系统”,它可以监测AI并且做出防御回应。 即使这种系统不能完全遏制AI的滥用,至少可以反馈这些问题。
重申一下,我认为自己是和平主义者,一贯反战和支持军控。 如果这项禁令不仅止于形式,而且非常有效;不仅点燃了大众的情绪,还引发了大众的思考,我将举双手赞成。
免责声明为了充分披露,请允许我声明我的一些基础研究(关于人类认知的AI)由美国国防部资助机构(如海军研究办公室)资助。 ,我在文中观点是客观的,与资助方无关。美国的国防资助机构资助了大量基础研究,包括参与禁令运动的研究人员。