欧盟发布可信赖AI道德准则草案 提出两大要素和数个不可为
欧盟委员会任命的人工智能高级专家小组(AI HLEG)最近发布了长达37页的《可信赖AI的道德准则草案》。该草案详细阐述了可信赖AI应具备的两大要素以及AI应遵循的基本原则。
这个备受瞩目的道德准则草案是由欧盟委员会于去年4月命名的AI HLEG制定的,其中包括52位来自学术界、工业界和民间社会的独立专家。他们的主要任务之一是在年底前出台基于欧盟基本权利的发展和人工智能使用准则草案。
根据这份道德准则草案,可信赖AI的第一个要素是尊重基本权利,遵循法规、核心原则和价值观,以确保其“道德目的”。第二个要素是技术鲁棒性和可靠性,因为即使有良好的意图,缺乏技术掌握也可能造成无意的伤害。为了应对可能出现的AI问题,该草案还建议准备一个“应急计划”,例如当系统出现问题时,将控制权交给人类。
更为详细的是,该草案列出了AI不应有的行为,包括以任何方式伤害人类、限制人的自由、不公平使用、歧视或污蔑、运作不透明等。在整体框架上,草案分为三部分,其中第一部分阐述了AI必须遵守的基本权利和价值观,第二部分提出了实现可信赖AI的指导方针和可信赖AI的要求,第三部分则提供了一个评估表,涵盖问责机制、数据治理、非歧视、尊重隐私等方面。
该草案目前正处于意见征集阶段,截止日期为本月18日。今年3月,它将正式提交给欧盟委员会。随着人工智能的快速发展,其背后的道德隐患问题一直备受关注。欧盟近年来一直在关注人工智能的发展,除了推动此次草案的完成,还发布了AI行动计划等。企业界也在积极应对,包括微软、谷歌等在内的AI研究者和商业化推动者都推出了自己的AI准则。这一系列的努力都是为了确保人工智能的发展能够符合道德,并真正为人类带来福祉。