无人机刺杀一国元首!是时候讨论一下AI杀人了!

行业资讯 2019-08-15 19:22www.robotxin.com人工智能机器人网

AI事件

作者萝卜兔

人类历史上出现了第一次动用无人机刺杀一国元首。

这似乎像是好莱坞大片中的情节委内瑞拉的总统马杜罗在首都加拉加斯出席军队纪念活动演讲时,突然遭遇无人机的攻击。

这次刺杀一共有三架无人机参与其中,每架无人机负载1公斤的C4炸药。第一架无人机在总统看台对面爆炸,另一架起飞后在看台右侧爆炸,一架是在看台以南的建筑附近爆炸。

总统没有受伤,6名犯罪嫌疑人已经落网。委内瑞拉地下组织宣布对此事负责,美国国家安全顾问表示“这跟我们没关系....”

虽然此次刺杀并未成功,并且技术含量不高,不过随着科技的进步,作恶的手段也会进步。

“杀人蜂”的出现

2017年11月,无人机公司StratoEnergytics发布了一款微型无人机武器,该武器很小,自带一颗小型炸弹,搭载摄像头进行人脸识别确认目标,实施精准爆头打击。如果此次暗杀采用的是这种“杀人蜂”,结果恐怕不好说...

几年前,美国大片出现这种武器的时候,还感觉神奇无比,完全不曾想过它们很快就出现在了现实世界中。此时此刻,我不由得生出一丝恐惧。

谁来保证不研发AI武器?

3月Google与美国国防部一起合作一个“Project Maven”的军事项目,利用图像识别技术分析无人机拍摄的影像,以更好的实现精确打击。这遭到了Google员工的强烈抵制,超过3000名Google员工联名发布公开信。

随后,Google不得不发布声明,宣布使用人工智能的7项原则以及4条底线。这7项原则是

1、对社会有益。

2、避免制造或者加深不公平的偏见。

3、在开发中进行测试以确保安全。

4、对人类负责。

5、隐私原则。

6、坚持对卓越科学的追求。

7、在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。

4条底线1、对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制。

2、不会将AI用于制造武器及其它会对人类产生伤害的产品。

3、不会将AI用于收集或使用用户信息,以进行违反国际公认规范的监视。

4、不会将AI用于违反国际法和人权的技术开发。

对于Google员工的反对以及大众的质疑,Goolge给出了这一份回复,和五角大楼的合作仍在进行。都说战争是充满谎言的,谁能够保证自己不研发AI武器?中各种势力珠胎暗结,现实恐怕比片中还更加荒诞可怕。

前段时间,马斯克、DeepMind创始人以及116位科学家联名写信给联合国,表示“老铁,必须要谨慎对待AI武器啊!你得管管”。强烈建议各个国家能够制定相应的法律法规,监管AI武器的研发。

,从国家的角度来说,对于武器,比如核武器可以不用,不能没有。

另一个问题是能不能Hold住?

核武的主动权尚在人类手中,AI武器的主动权在谁手中?完全拥有自主意识的强人工智能,自主权不会再存在于人类手上,它们会不会出现,何时会出现,不得而知。可是一旦出现,局面就很难掌控了。

现阶段,我们还在弱人工智能的探究中,掌控它们似乎也不是一件容易的事情。比如Titter曾经上线的聊天出现了种族歧视;很多聊天机器人都出现了性别歧视的倾向,而这些并不是研发者的初衷。它们太可能被数据、环境、病毒所左右...

还有一点,当无人机代替人类执行歼灭任务的时候,它的目标是歼灭敌人...它将毫无人性的执行所接收到的命令,完全没有人道主义精神可言。它们完成的结果可能并不是我们想要的。

AI其实也很“痛苦”

在广泛研究探索AI技术的今天,AI伦理被抬上了桌面。著名小说家阿西莫夫提出的“机器人学三定律”想必大家都很熟悉

  1. 机器人不能伤害人类,或因不运动而使人类受到伤害;
  2. 机器人必须执行人类的命令,除非这些命令与第一条定律相抵触;
  3. 在不违背第一、二条定律的前提下,机器人必须保护自己不受伤害。

这样看上去好像是能解决人们利用机器人作恶的问题,但如果不是你死就是我亡呢?自动驾驶是现在很火的研究方向,而关于自动驾驶就有一个很著名的“电车悖论”问题。

遇到交通意外的时候,无人驾驶汽车到底是应该尽力保护车里的乘客还是路上的行人?这真的是一个不亚于亲妈和亲老婆落水的世纪难题,作为AI也表示相当为难,作为一个智能体,能够考虑多种选择,作出当下情况的最优解——将可能的伤害降到最低。

但素!通过调查发现,超过80%以上的人类表示我会购买尽最大可能保障车内乘客安全的车。无人车表示我看不懂你们人类!我们每一个人都很理解这种出于本能的自我保护愿望,每个人的生命都是平等的,在万不得已的情况下牺牲自己或者是他人都是情有可原的。可是,一旦AI接受了“最大可能保障车内乘客的安全”这个信息,那么很有可能就会致路人于死地...想想都不寒而栗。

是时候了

到底要不要研发武器,如何管制AI武器,全球应该达成怎样的共识?无人机,无人车,发生事故,导致人类死亡,如何界定责任呢?有人说,现在人工智能才发展到什么阶段,不必杞人忧天。全球来看这一块都是缺失的,是时候探讨一下关于发展AI我们会面临的一系列伦理、道德以及威胁人类生存的问题了。

如果不研发AI武器,如何保障全球内不会有别有用心的组织偷偷研发?如果可以研发AI武器,如何保障不肆意乱用,人类拥有绝对的控制权利?

AI伦理由谁站在谁的立场来制定?谁按照什么原则来执行AI伦理呢?

<

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by