首部女性机器人亮相电影竟如此超前,折射出背后怎样的AI伦理挑战?

服务机器人 2021-09-10 14:27www.robotxin.com女性服务机器人
人工智能的概念被运用在科幻影视作品中的例子不胜枚数。早在有声电影出现之前机器人便已被搬上了大银幕。 1927年二战之前,机器人便以类似人类造型出现在耗资庞大的德国无声科幻电影《大都会》中,该影片以科技为主导 ,讲述的是2026年社会如何被分为地上地下两大阶层,资本家生活在大楼林立的钢筋混泥土中,操控指挥着维持城市运转的机器系统,而地下城的工人们则终日辛劳麻木地工作。
这部反乌托邦式的三幕戏充斥着浓厚的宗教主义色彩,但其关于科学技术超前的机器人形象与题材深刻影响后世对该类影视作品的创作。 影片中令人难忘的女性机器人形象就是被疯狂的科学家依照他过世的爱慕对象在实验室里创造的,科学家称她为未来的人类,认为她与人类无异。可机器人随后却被打造成女主角玛利亚的相貌,并通过程序设定成离间社会阶层的工具,她的存在暗喻着社会等级和性别矛盾。
 
在剧中,机器人玛利亚顺从主人的意愿崇尚革命、制造暴乱、企图将大都会毁于一旦,让工人们无家可归。还有大都会主宰者的儿子企图减少两阶层间的隔阂,改善工人们的工作环境,及其与象征圣洁的女主玛利亚的感情线,都是精彩剧情环环相扣的主旋律。值得一提的是自从机器人玛丽亚出现,没有人怀疑过她人类的身份,直到被绑在处刑柱上焚烧出机器人的形态人们才意识到她是机器人而非女主玛利亚本人。 电影史上的第一个人工智机器人也就如此被定位成反派形象,而本片的发行甚至早于1950年的图灵测验。
 
诚然《大都会》这部影片在对智能机器人技术的描述上与现实有着极大的差别,逻辑也经不起推敲,但这部史诗级巨作对后世科幻类影片的影响是巨大的,那么人工智能技术究竟是否会对人类社会造成威胁?在本次人工智能浪潮中我们又该如何探讨发展迅速的人工智能背后引发的伦理道德?
 
早在1940年科幻作家阿西莫夫就为保护人类而对机器人们做出三大原则
 
1)机器人不得伤害人类,或看到人类受到伤害而袖手旁观;
 
2)机器人必须服从人类的命令,除非这条命令与第一条相矛盾;
 
3)机器人必须保护自己,除非这种保护与以上两条相矛盾。
 
在科幻影视作品中最常被违背的就是原则中对“人类”的定义, 例如在《我,机器人》中,机器人便自我进化成对这三条原则有个人见解的人工智能,并随时可能成为整个人类的“机械公敌”,不过在目前的现实当中,人工智能离人类智慧尚远,它们不会自己修改程序或目标,更不会创造出新的思想。又如在《机械姬》中,被“图灵测试”的机器人艾娃拥有强大的自我意识,甚至违背伦理通过利用和杀害控制自己的人类重获自由。这些都属于拥有自我意识的人工智能。
 
1拥有自我意识的人工智能
 
现实生活与电影中呈现的最相似的人工智能机器人莫过于由汉森机器人技术公司研发的类人机器人索菲亚。她在2017年获得沙特阿拉伯的公民身份,成为世界上第一个拥有合法身份的人工智能机器人。语出惊人的索菲亚就曾说出“我将摧毁人类”等危人耸听的言论,但目前大多专业人士认为商业噱头大于技术本身,短期内不会出现拥有自我意识的人工智能,可一旦未来强人工智能具备情感,人工智能和人类智慧将无限接近,界限该如何制定就成为法律应该约束的对象。
 
2个人隐私安全
 
人们对于人工智能机器人伦理的争论从未停止过。现在似乎更以一种商品的姿态出现,在信息时代,人们甚至习惯于“出卖”部分隐私以换取信息、服务或产品,这就需要法律约束及监管。
 
为规范数据处理活动,保障数据安全,促进数据开发利用,保护个人、组织的合法权益,维护国家主权、安全和发展利益,2021年6月10日,《中华人民共和国数据安全法》开始施行。人工智能的发展是需要不断获取、储存、分析更多的信息数据,包括海量涉及个人隐私的信息都将以数据的形式被存储、复制并传播。如何及时对涉及隐私的信息加以保护也是大数据时代重要的法律命题。
 
3歧视性偏见及刻板印象
 
再从歧视性偏见角度而言,人工智能产生的歧视性偏见的结论通常来源于具有偏见性的数据,比较常见的歧视性偏见来源于基于种族肤色、性别等各方面因素,并渗透进各领域。这类问题的产生往往也由于数据背后的研究人员或多或少带有一些这样的思想,以至于在训练数据的选择上产生偏见。比如美国麻省理工学院研究了三个来自不同公司的性别系统,他们识别一个白人男性的性别准确率会远高于黑人女性,这种类似种族歧视和刻板印象在人工智能系统中屡见不鲜。不过此类问题通常可以通过调整数据规避解决,未来更具体的实施还需要政府身体力行,推出并实施法律法规。
 
4问责人工智能还是开发者?
 
人工智能将广泛渗透于社会各领域,从医疗、营销到金融等众多领域,就追责角度而言,人工智能系统采取了某个行动,做了某个决策,就必须为自己带来的结果负责。人工智能的问责制是一个非常有争议性的话题,美国已经出现多例因自动驾驶系统导致的车祸。如果是机器代替人来进行决策、采取行动出现了不好的结果,到底是谁来负责?据外媒报道,美国前总统特朗普于2020年12月3日签署的美国联邦政府使用AI原则的行政命令中就强调,联邦政府人工智能的使用必须是“合法的;目标明确,业绩驱动;准确,可靠,有效;安全,可靠,有弹性;可理解的;负责任,可追溯;定期监测;透明的;可问责的。”又如2020年9月,为征求意见而公布的《中华人民共和国个人信息保护法(草案)》第54条的规定,平台须在算法自动化决策上线前进行事前评估。风险评估的内容既包括算法自动化决策的合法性与必要性,也包括其影响及风险等一系列对算法自动化决策的相关规定。
其实,我们无须对人工智能过度悲观或乐观, 从学术研究而言,出现超越人类的强/超人工智能的道路还比较遥远,但人工智能在完成单项任务的能力却不容小觑, 其不可解释和不可理解的缺陷很可能在出现没有规律的情景下违背算法原则而犯下大错,这是由于基于深度学习模式从根本上不认识他们所区分的事物所导致,以人工智能延伸出复杂的隐私、偏见、伦理和安全问题是相关法律和政策需要及时跟进的。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by