卢瑞昌如何理解人工智能治理
当我们频繁地在媒体与会议中听到关于人工智能的讨论时,通常也会遭遇一个不可忽视的词汇——“人工智能治理”。尽管人工智能的讨论热闹非凡,关于人工智能治理的内涵与范畴,却往往被忽略或混淆。
关于人工智能治理,有三个核心问题引人注目但尚未得到明确解答。什么是人工智能治理的确切定义?我们明白“治理”的广泛含义,但人工智能治理的具体职责和行动路径却模糊不清。哪些组织内部的负责人,无论是还是商业机构,应该直接承担起人工智能治理的责任?如何评估与追踪人工智能治理的成效?这三个问题正是一个组织在实施人工智能治理时所面临的基础挑战。
这三个问题的缺失,使得人工智能治理在实际操作中遭遇了重大挑战。它们尚未得到充分的讨论,原因可能在于以下几点:许多机构和国际会议更多地停留在人工智能的宏观议题上,缺乏针对治理的深入研究和具体倡议。行业参与者常常将人工智能治理与两个概念混淆,误以为制定道德标准就等于治理。现有的治理报告和倡议缺乏明确的实施路径和方案,难以形成具有全球共识和约束力的治理机制。
尽管许多企业已经制定了人工智能准则,但这些准则如何转化为日常的工作实践却仍不明确。德勤的一项调查显示,虽然人工智能被看作是三大风险之一,但许多公司并未建立处理这些风险的具体方法。以公平性准则为例,几乎所有的人工智能准则都强调这一点,然而在实际操作中,员工往往难以理解和执行这一准则,其中的模糊性和主观性成为障碍。
实际上,仅仅熟悉道德准则并不会直接改变员工的行为。为了确保人工智能准则能指导员工行为,需要一系列相应的制度设计与安排,并将这些制度深入融入到组织的每一个角落。就像公司治理通过一系列正式与非正式、内部与外部的机制来确保公司利益和股东利益的最大化,人工智能治理也应该建立一套具体的机制,包括制定、维护、监管和问责等。这是一个涉及多个利益相关方、持续互动的过程,受到公司文化、组织结构、数字化成熟度和风险承受能力等多重因素的影响。
随着人工智能技术在社会中的影响力不断增强,厘清和建立具体、可执行的制度安排变得至关重要。接下来,人工智能治理实践将经历从讨论到实际治理机制的加速演变过程。
作者卢瑞昌教授是北京大学光华管理学院的金融学副教授,本文基于他在“2020全球十大人工智能治理事件专家内部研讨会”上的发言整理而成。新媒体编辑和原文责编分别为司文君和李懿。