目前 人类为 AI 制定的道德框架很失败

行业资讯 2025-01-17 13:29www.robotxin.com人工智能机器人网

不久前,AI Now这一新兴研究机构发布了报告,引起了广泛关注。这份报告呼吁人们要更加重视人工智能对社会的影响,其背后的核心理念是:在人工智能成为潜在的灾难之前,我们必须对其进行妥善的安置与管理。为此,Wired杂志的记者Scott Rosenberg对AI Now的创始人之一Kate Crawford进行了深入的访谈。

Kate Crawford以及AI Now的另一个创始人Meredith Whittaker,在两周前发布了一份报告。这份报告指出,科技行业正在以不可阻挡的态势利用人工智能重塑社会,但这样的进程并未带来可靠和公平的结果。在她们共同撰写的这份密集但易于理解的35页报告中,她们详细列出了研究议程和政策路线图。她们得出的结论是直截了当的:到目前为止,我们尝试将人工智能置于道德框架内的努力已经宣告失败。

这份报告指出,当前的人工智能框架需要超越个人责任,要让那些拥有强大工业、和军事利益的实体承担起责任。在科技巨头开发人工智能产品时,他们常常忽视用户同意、隐私和透明度等重要因素,而过于专注于数据聚合,为利润驱动的商业模式服务。在警务、教育、医疗和其他领域引入人工智能系统时,算法的失误可能会毁掉一个人的生活。

Kate Crawford在接受Scott Rosenberg的采访时强调,尽管很多人都在谈论如何为人工智能制定道德规范,但目前仍缺乏一个能够真正落地的框架。她指出,现有的道德原则与实际的人工智能开发情况之间存在巨大的鸿沟。为了解决这个问题,我们需要有强大的问责机制来确保道德准则的实施。我们还需要关注权力因素,因为真正的权力不对称如何影响着不同的群体。

报告揭示了一个令人担忧的事实:我们可能过于急躁地推进人工智能的发展,以至于没有花费足够的时间来全面考虑其社会影响。Kate Crawford表示,时间确实是一个因素,但优先级同样重要。如果我们能够投入更多的资金和资源来研究和测试人工智能系统的广泛社会和经济影响,并建立相应的行业标准,那么我们就有可能避免未来的灾难。

她进一步强调,我们需要训练人们去测试人工智能系统,并创建安全和公平的机制。在将人工智能系统部署到人类社会之前,我们需要增加对这些系统的测试和评估的紧迫感。我们必须确保这些系统在安全、公平和道德方面得到妥善的管理和安置。

在人工智能行业蓬勃发展的今天,我们面临着一项迫切的任务:从计算机科学和工程领域之外聘请专家,赋予他们决策权,以确保人工智能系统的公正性。当系统设计和部署完成,仅仅在最后阶段引入咨询顾问是远远不够的。我们必须通过刑事司法体系和预见性监管来严肃对待系统偏见的问题,否则我们可能会在无意识中延续历史偏见。

解决这一问题并非单纯的技术挑战,而是涉及到如何消除系统不平等和偏见的问题。这是一场关于“内部重组”的战役,需要我们从内部改变事物的本质。我们不能仅仅依靠研究人员坐在一旁,分析数据和得出糟糕的结果来吸引公众关注和媒体报道。我们需要深入理解人工智能行业的数据能力和来源,将其视为一个底线安全问题。这些系统会影响人们获得工作、摆脱困境、进入大学等关键领域的能力,因此我们必须深入了解这些制度如何变得更公平,以及这些决策如何影响人们的生活。

作为微软研究院的一员,我深知责任和使命的重要性。我们不仅要深入研究,还要积极参与,确保这些系统的公平性和安全性。我们的报告经过了六个月的深入研究和讨论,来自于与顶级专家的合作。我们知道这些系统是如何建立的,明白如何采取积极的步骤来使它们更加安全、公平。我们认为在独立的环境中工作至关重要,我们可以在科技公司之外进行研究,帮助这些系统更好地适应复杂的社会环境。

在过去的18个月里,人们开始关注围绕机器学习出现的偏见问题,但往往只将其视为技术问题。我们需要拓宽视野,认识到理解这些问题需要更全面的视角。数据并非中立,而是承载着历史的印记。当我们使用数据来训练系统、提出建议或自主做出决策时,我们必须深刻认识到历史的影响。

面对对此类研究的态度变化,我们依然保持乐观。尽管美国的支持有所减少,但欧洲、印度和中国等地的严格数据隐私规定正在实施,为我们提供了机会。我们将继续研究,为我们的工作带来影响力,确保在未来指导政策制定时,决策者能够基于强有力的实证研究来做出决定。

我们呼吁在创建人工智能的团队中拥有更大的多样性,包括职场文化的改变和包容性问题的重视。在制造能够影响众多不同人群的系统时,团队的多样性至关重要。我们不能忽视职场中的包容性问题,尤其是在某些事件发生后,我们更需要认识到多样性和包容性的重要性不仅仅是口头表达或强调的词汇,而是真正的行动和实践。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by