韩国研发AI武器遭抵制事件落幕:AI杀人机器,是你无法正视的恐怖存在!
韩国大学研发AI武器一事终于有了进展。近日,据路透社报道,韩国科学技术院(KAIST)正与韩华集团旗下韩华系统公司合作,共同开展人工智能研发项目。项目的目标包括研发人工智能导弹、潜艇和四轴飞行器,这些技术将被应用于作战指挥、目标追踪和无人水下交通等领域。该消息引起了多国专家的担忧,其中包括来自澳大利亚、美国和日本的专家在内的研究人员感到不安。
为了表达抗议,超过五十名国际知名的人工智能和机器人专家联合抵制韩国科学技术院的研发行为。他们在公开信中明确表示,人工智能武器的发展将突破道德底线,敦促该学院停止研发缺乏有效人工控制的武器系统。公开信的发起人之一,澳大利亚新南威尔士大学的人工智能教授托比·沃尔什在接受路透社采访时表示,虽然人工智能和机器人在军事领域具有巨大潜力,但我们必须避免将决定生死的权力交给机器。他认为,这样的行为是违背道德的。
公开信中还提到了对机器人武器开发竞赛的担忧。专家们担心一旦利用这些技术,后果将不可想象。他们担心随着机器人武器的开发竞争加速,未来的战争规模可能达到前所未有的程度。同时指出一旦失去对技术的控制或受到黑客攻击,后果将是灾难性的。因此专家们呼吁全球范围内的合作与监管以确保人工智能技术的安全和可控性。这不仅是对韩国科学技术院的呼吁,也是对全球范围内的科研机构和企业发出的警示。我们必须谨慎对待人工智能的发展,确保科技的力量服务于人类而非破坏人类的和平与稳定。后来,这件事引起了联合国的关注。联合国《特定常规武器公约》专家小组于4月9日在瑞士日内瓦召开会议,会议的议题是讨论致命自主武器系统(即所谓的“杀手机器人”)的研发可能带来的影响。这一议程引发了广泛的关注和讨论。
在这场讨论的浪潮中,KAIST的院长Sung-chul Shin站出来发表了意见。他写信给抗议专家表示:“我要重申,KAIST无意参与研发致命性自主武器系统,也就是‘机器人杀手’。我们身为学术机构,始终坚守人权和标准。我再次强调,KAIST没有从事任何违背人类尊严的研究,包括开发缺乏有效控制的自主武器。”
Shin院长的回应似乎起到了积极的作用。KAIST表示,在得到这一保证后,之前计划断绝与KAIST关系的研究人员已经同意撤回计划,将恢复与KAIST的访问和合作。
探究基于人工智能技术的自动武器:何以令联合国动容?
回溯至去年11月,在日内瓦举办的联合国特定常规武器公约会议上,一段震撼人心的视频引发了广泛关注。视频内容描绘了一群仿佛出自《黑镜 III》中的机器蜂的小型机器人,它们通过精准的人脸定位,瞬间屠戮了正在上课的无辜学生。
这些体型娇小的机器人,蕴藏着令人惊叹的黑科技:传感器与摄像头的结合,使其能进行人脸识别,不仅如此,它们还能基于先进的AI技术躲避。更令人胆寒的是,这些机器人的中部隐藏着3克的,足以产生致命的一击。
视频的结尾处,伯克利大学的教授Stuart Russell向观众发出警示,虽然这些机器人尚属虚构,但其中的科技手段却已在现实中存在。不难想象,一旦这些技术落入之手,将会引发何等的灾难。
这一技术的潜在威胁,不仅令全球势陷入紧张,同时也引起了联合国的深切关注。人工智能技术的双刃剑特性在这一刻被无情地揭示出来,其既可以带来科技创新的福音,也可能成为毁灭人类的凶手。这一技术的进一步发展与应用,无疑将引发全球范围内的广泛讨论与深思。专家们与研发人员们正全力以赴,致力于避免视频中令人痛心的场景在未来重演。他们的决心坚定,不容任何疏漏。为此,一场会议后,来自学界的超过200名加拿大科学家与业界的百余名澳大利亚科学家联名撰写公开信,向本国总理表达强烈呼吁,希望通过限制相关研究来防患于未然。
《黑镜》虽为科幻作品,但基于AI技术的攻击性武器却并非虚构。在现实中,我们正面临严峻的挑战。正如2018年初外媒报道的那样,Google正与美国国防部携手开发无人家软件。借助Google的机器学习技术,军方的无人机识别能力将得到显著提升,这将为军事行动带来更为精准的识别效果。关于这个名为“Maven”的项目背后的潜在风险也不容忽视。该项目旨在处理军方收集的数以百万计的无人机拍摄视频,为其精准识别个人提供能力。这一技术虽然增强了军事效能,但也可能引发一系列和隐私问题。对这类研究的限制和监管显得尤为必要。与此公开信已在Google内部广泛传播。超过三千名员工在这封公开信上签名,他们呼吁公司退出五角大楼的军事计划,并坚守不开发战争技术的承诺。韩国科学技术院的研发同样引起了广泛的关注与争议。在这关键时刻,需要更多的声音站出来反对任何可能加剧紧张局势和侵犯人权的技术研发。我们相信科技与和平的和谐共存才是未来的方向。理解了韩国科学技术院将AI武器研发纳入日程所引发的广泛反响,特别是其与韩华集团的合作,这是一家在韩国乃至全球范围内享有盛名的武器制造商。韩华集团所生产的集束,因被《集束弹药》公约的120个签署国所禁用,其军事技术的使用一直备受争议。在此背景下,AI技术的军事应用无疑引发了更多的关注和讨论。
AI技术在各个领域的应用前景无限广阔,但在军事领域的应用却引发了人们的担忧。尽管AI技术的研发初衷是为了推动科技进步,方便人类生活,但当其被应用于军事领域时,尤其是用于“”,却违背了研发人员的初衷。这种担忧并非空穴来风,毕竟人工智能,尤其是深度学习和神经网络等领域,隐藏着许多人类尚未理解、难以预测的复杂性。就如同一个“黑箱”,即使人们知道它的功能强大,也难以解释其内部运行机制。
深度学习的强大能力已经得到了广泛的验证,其在图像识别、语音识别、语言翻译等领域的应用已经深入到人们的日常生活中。与此人们对于深度学习的未知性和不确定性产生了深深的忧虑。深度学习技术的内在机制是否安全?是否可靠?我们是否能够理解和控制它?这些问题都悬而未决。在人工智能日益发展的今天,人类需要找到一种方法,确保深度学习技术能够更好地理解其创造者的意图,并对其使用者负责。只有这样,我们才能确保人工智能的发展真正为人类带来福祉,而不是灾难。在此背景下,韩国科学技术院的AI武器研发计划无疑给全球提供了一个重要的观察和研究窗口。美国军方正投入数十亿美元,运用机器学习技术助力车辆和飞机识别目标,并帮助分析人员筛选海量情报数据。在国防领域,机器学习技术的“可解释性”被视为一项至关重要的挑战。与其他领域,甚至医学领域相比,机器学习的可解释性在国防领域显得尤为重要。
David Gunning,美国国防高级研究计划局的项目负责人,肩负重任,负责一项名为Explainable Artificial Intelligence program的人工智能“可解释性”项目。这位银发老兵曾监督导致Siri成立的DARPA项目。目前,情报分析人员正在测试机器学习,将其作为识别大量监控数据模式的方法。许多自主地面车辆和飞机正在研发和测试中。但如果机器坦克无法解释其行为,士兵和分析师可能会感到不安,不愿在没有理由的情况下采取行动。Gunning指出:“这些机器学习系统往往会产生大量误报,因此分析师确实需要额外的帮助来理解其推荐原因。”
在此背景下,马斯克这位一直主张“AI”的企业家再次引发关注。在一部由克里斯·潘恩制作的纪录片中,调查了一些人工智能应用实例,包括自动武器、华尔街的技术算法等。马斯克警告说,人工智能“即使不需要作恶,也可能摧毁人类”。
关于韩国大学研发AI武器的风波虽已平息,但全球AI研发人员的道德界线仍备受瞩目。人们对AI“武器”的担忧和讨论将持续不断。我们不禁要问,无论是AI本身还是人类,我们是否始终能将其置于控制之中呢?这是一个值得我们深思的问题。