欧盟眼中的人工智能伦理问题
当今社会,人工智能已逐渐成为国际社会关注的热点话题。
从未来生命研究院提出的“23条人工智能原则”,到IEEE的人工智能标准项目,再到联合国耗时两年完成的机器人报告,无一不凸显了国际社会对于人工智能的重视。欧盟在此方面的动作尤为频繁,不仅积极推进人工智能框架的确立,还在去年将人工智能确立为立法工作重点,并成立了专门的工作小组,就人工智能的发展和技术引发的道德问题制定指导方针。
技术背景方面,人工智能在公共和私营部门催生出众多新产品和服务,以其改善工作条件、减少人力投入的能力,辅助甚至取代人类。人工智能系统的不透明性引发了一系列复杂的道德问题。深度学习和“生成对抗网络模型”使机器具备自我学习能力,但机器的行为常常难以理解和审查,数据的封闭性更使得偏见和错误可能进入系统。
相关技术的发展包括以机器学习、深度学习为代表的人工智能、先进的机电一体化以及更加智能的、高度自主的系统。这些技术为服务业、生产行业和健康领域提供了无数的应用场景,如护理、零售、物流、家庭自主以及安全维护等。这也引发了关于安全性、道德责任、治理和监管等一系列问题。
在人工智能日益发展的今天,我们不得不进行深刻的道德反思。随着能够脱离人类独立运行的高科技系统和软件的出现,一些人类工作将被取代,这将引发一系列重要且艰难的道德挑战。关于安全性,我们如何确保互联的人工智能和“自主”设备的安全可靠运行?关于道德责任,在复杂的社会-技术系统中,如何界定人与智能机器之间的道德责任?人类是否将成为被视为道德“缓冲区”的“自主”设备的生态系统的一部分?人工智能还引发了关于治理、设计、开发、检查、监督、测试和认证的一系列问题。
面对这些挑战和问题,我们必须深入探讨并制定共同的、国际公认的道德和法律框架,为人工智能、机器人和“自主”系统的设计、生产、使用和治理提供指导。只有这样,我们才能在享受人工智能带来的便利的确保人类的道德和价值观不被侵蚀。第四,我们需要考虑的是民主决策问题,其背后涵盖了制度、政策以及价值观的决策。这些决策都是基于全球范围内关于公民如何利用机器学习、大数据和行为科学先进技术的调查数据而制定的。调查目的在于了解公民是否能够利用这些先进技术进行精准分析和定位,或是根据商业和政治目的做出合理的架构选择。我们如何确保这些技术的利用不偏离公共利益和社会价值观的方向?这无疑是当下最为迫切的问题之一。
人工智能和自主系统的可解释性和透明度问题也引发了广泛关注。这些系统究竟能为我们带来何种价值?我们该如何基于我们的价值观来设计这些系统?在技术进步与效益权衡的过程中,我们是否无意中破坏了某些价值?这些问题都需要我们深入思考和解答。
一些国家尝试利用人工智能优化社会过程,然而这种基于社会评分系统的试验却违背了平等和自由的基本思想。这种试验如同种姓制度一样,在现实中定义了“不同种类的人”以及“人的不同属性”,这无疑是对个体自由的限制和剥夺。
核心考量在于,我们必须明确自主这个术语在机器和人类之间的不同。自主作为人类活动的一部分,是一种道德意义上的行为。将自主这个术语应用于纯粹的人工制品是一种误用。我们必须认识到,机器不能被赋予人类的道德地位和人类的尊严。我们不能让机器来解决与人类价值观相关的问题,这将会对本质意义上的欧洲价值观构成破坏。我们必须明确哪些问题是技术可以解决的,哪些是与道德紧密相关的问题,后者不应由机器来解决。关于道德责任的问题,我们需要关注的是人类代理的因果关系、问责制、责任、反应态度和社会角色等方面,而非将责任归咎于机器或技术本身。有意义的人类控制原则首次被提出用于限制致命自主武器系统和自主车辆的开发和使用,这意味着最终决策权应掌握在人类手中,而非计算机及其算法。
超越狭义道德框架的辩论正在自动驾驶汽车和致命自主武器系统等领域展开。然而除了简单的数据保护和隐私问题外,我们还必须关注诸如哪些价值观应该在设计中被考虑、如何平衡不同价值之间的冲突以及如何为这些冲突寻找解决方案等问题。第二个问题在于如何实现有意义的人类控制于自主武器系统上。第三个重要的应用领域是自主软件,包括机器人,我们必须正视这些问题并采取相应措施确保技术的发展不会背离我们的初衷和价值观。对于这些问题来说急需寻找答案的速度远超人工智能和机器人技术的发展速度因此急需为人工智能机器人和自主系统的设计生产使用和治理规划一个全面性的发展进程为设立共同的国际公认的道德框架铺平道路这是当下的重要任务之一同时行业内部的从业者和专家协会也在积极提出制定人工智能和自主系统的道德原则方面的倡议如生命未来研究院发起的阿西洛玛人工智能原则等这些原则不仅指导了人工智能的研究和应用还获得了行业内众多利益相关者的广泛支持从而为其进一步的发展提供了有力的支撑联合国的相关会议也在推动人工智能军事应用方面的全球辩论呼吁禁止建立能够脱离人类控制的自主武器系统以确保技术的发展符合国际公认的原则和价值观这些都是我们在探索未来时必须深入思考的问题和方向同时我们必须认识到技术是一把双刃剑在利用技术发展的同时我们必须注重对其可能带来的风险和挑战进行防范和应对以确保人类社会的可持续发展各国对待人工智能的态度各不相同,一些国家已将其规则和监管的制定作为首要任务,而另一些国家则仍在观望。鉴于这种差异,欧洲议会强调,有必要采取一系列前瞻性措施,为人工智能的未来发展做好监管准备。他们提出了一个基于欧盟条约和欧盟基本权利宪章的框架,为机器人和“自主”系统的设计、生产和使用提供指导原则。
这个框架涵盖了以下核心道德原则和民主先决条件:
一、人类尊严:任何技术都不应侵犯人类固有的尊严。对于算法和自主系统,需要法律的约束,以确保社会关系中的个人尊严得到尊重。
二、自主原则:强调每个人都有权决定与机器或其他人的互动方式,以及是否将决策和行动委托给人工智能系统。这也要求“自主”系统具备透明度和可预测性。
三、责任:人工智能系统的设计和应用必须尊重基本的人类价值观和权利。这意味着,“自主”系统的设计需符合人类价值观,同时对风险意识和预防措施极为重视。
四、正义、公平和团结:人工智能系统应预防、检测并消除存在的歧视性偏差,确保利益和机会的公平分配。要注意保护个人数据,避免激进个人主义的出现。
五、民主:人工智能发展和管理的重要决策应通过公众参与和民主辩论来达成。新技术的信息公开有助于公众了解和参与决策过程,体现人的自决权。
六、法治和问责制:司法机关需为人工智能设立具体规定,提供必要的法律框架,确保对“自主”系统可能产生的安全和隐私风险进行保护。对于该领域出现的法律问题,应及时研究并寻找解决方案。
七、安全性和保险性:人工智能开发人员必须考虑安全性和保险性的所有方面,确保“自主”系统不会侵犯环境、用户或人机交互的多方面安全性。
八、数据保护和隐私:在数字通信技术普及的时代,个人信息和隐私权的保护至关重要。智能机器人和人工智能软件必须遵守数据保护条例,“自主”系统不得干涉私人生活。
九、可持续性:人工智能的发展必须考虑环境保护和可持续性,防止对未来人类生命和自然造成不利影响。
欧洲科学与新技术组织呼吁欧盟委员会认真考虑这些道德原则和法律规则,为人工智能、机器人和“自主”系统的设计、生产、使用和治理建立一个通用的、国际公认的道德和法律框架。这一框架将为各国在人工智能领域的发展提供指导,确保技术的健康发展符合人类的价值观和权利。本文由腾讯研究院法律研究中心的高级研究员曹建峰与两位助理研究员付一方和霍文新共同撰写。
曹建峰作为资深专家,深度剖析法律领域的核心问题;付一方和霍文新则以其独特的视角和见解,为文章注入了新鲜血液。三人联手,为我们呈现了一篇内容丰富、观点独到的文章。
接下来,让我们一同领略他们的研究成果吧。
家用机器人
- 从初生创业到人工智能领域的佼佼者
- 人工智能产业的全面发展
- 中国人工智能已比肩世界
- 全球产业格局大调整 工业4.0掀半导体变革
- 机器人13年内将抢走全球8亿人饭碗 这些职业影响
- 懒人福音:三星新款 AI 冰箱支持电动开门
- 大疆机场,让无人机基础设施巡检迈向自动化、
- 能链智电开启充电机器人等创新业务 预计2023年收
- 人工智能创新应用先导区再扩容 智能经济渐行渐
- 集萃智造三栖机器人,灵活切换水、陆、空三栖
- 机器人产业发展规划(2016-2020年)发布
- 四大论坛日程出炉,创客、机器人、校外教育、
- 新发布14家“双跨”工业互联网平台
- 《中国制造2025》解读之:推动机器人发展
- 机器人为什么能写稿,以及它们能拿普利策奖吗
- 国产机器人发展方针研究,国产AI芯片再引关注,