让人工智能系统更负责任的落地,AI Now新报告给出10条建议
近日,美国研究组织AI Now发布了第二份关于人工智能发展的年度报告。这份报告是AI Now研讨会的重要组成部分,该研讨会汇集了众多领域内的顶尖研究人员,共同探讨人工智能对社会经济的影响。报告指出,人工智能技术正处于飞速发展的早期阶段,已经逐渐渗透到我们日常生活的各个方面,包括人脸扫描、人力推荐以及网络借贷等常见应用场景。
尽管人们对人工智能的快速发展抱有极高期待,但这一充满潜力的领域同样面临着巨大的挑战。在刑事司法领域,非盈利媒体ProPublica的调查小组发现,用于预测刑事被告再犯的算法可能存在对非裔美国人的偏见。这一现象在随后的研究中得到了许多学者的证实。在医疗保健、金融、法律、教育等行业以及各类办公场景中,早期的人工智能系统正被广泛应用。它们能够预测我们的音乐喜好、生病概率、适合的工作以及借贷额度等。
这些应用背后存在一部分问题。由于缺乏标准化的测试模式和审核方法,当前的AI系统无法完全避免算法偏差,保障绝对的安全。这些问题并非源于对人工智能的滥用,而是由于在使用AI技术的过程中,缺乏确保公平公正的流程和标准,以及对其社会效应的思考。
为此,AI Now在报告中为研究人员和政策制定者提供了十条关键建议。其中,针对高风险领域的公共机构,提出了不应使用具有“黑箱”特性的AI技术及算法系统的建议。这些系统至少应经过公共审计、测试及审查的过程,符合相应的问责标准。还强调了企业在发布AI系统前应进行严格的预发布测试,以及发布后需要继续监测其在不同环境和社区中的使用情况的重要性。
这些建议反映了AI及相关系统已经对部分重大决策产生影响的事实。为了确保AI系统得以负责任地部署与管理,我们需要开展更多的工作。公开透明是应对这一挑战的关键。企业在开发、测试、部署和监测AI系统的过程中,应该将方法、假设和结果公开透明化,以便进行公开审核和讨论。
为了确保AI算法系统的安全性,我们需要一个持续的过程,而不是一次性的检验。值得注意的是,许多AI模型和系统具有通用性,企业可能会采用一些附加功能,如情感检测或面部识别等。那些提供通用AI模型的企业应该选择已经批准使用的功能,这些功能已经将潜在的负面影响和风险考虑在内,以确保AI技术的安全和可靠。
随着人工智能技术的不断发展,我们朝着更加智能化社会的方向迈进。我们必须认识到,在享受技术带来的便利的我们也需要关注并解决由此带来的挑战和问题。只有这样,我们才能真正实现人工智能的可持续发展,使其更好地服务于人类社会。建议四:推进AI系统在工作场所管理和监测方面的应用,涵盖招聘和人力资源环节,并开展更多研究。
针对AI系统在招聘和人力资源领域的应用,需要深入探索和研究其对劳动力市场和工人权利的影响。如今,AI系统的自动化取代工人的趋势引发了广泛的关注,我们应更多地关注该现象对劳工权利和行为的潜在影响。比如近期HireVue公司推出的基于AI的视频面试服务,这一服务分析求职者的各种表现来判定其是否符合公司预期模型,对此我们应深入了解这类AI系统的使用范围和流程,以及其如何融入工作场所的实践之中。与此我们也应对这些系统对多样性的潜在影响保持警惕,确保它们不会加剧偏见和歧视。制定全面的研究计划至关重要,以全面理解AI系统在招聘、人力资源管理和监测领域的运作机制。
建议五:建立标准以跟踪AI系统的生命周期过程及训练数据集的使用情况。
为了更好地解决偏差及代表性误解问题,必须追踪并了解AI系统从启动到开发的整个生命周期过程。这意味着除了记录和描述训练数据集的创建和维护过程外,还需要深入研究和理解这些数据集背后可能存在的偏差和偏见。大规模数据是AI发现模式并作出预测的基础,但这些数据也反映了人类社会和历史背景中的偏见和偏差。我们不仅要关注数据的收集和使用过程,还要对训练数据集的偏差进行深入研究。为此,需要跨学科合作,结合不同领域的知识和方法来深入研究和解决偏差问题。随着技术的不断进步和数据集的更新,我们还需要不断验证和调整这些标准和方法。
建议六:以跨学科视角看待AI的偏差研究与缓解策略的研究工作。
偏差问题是人工智能领域长期存在的问题之一,要解决这些问题需要深度挖掘其背后的结构性原因。这不仅需要技术层面的研究,更需要结合其他领域的知识和方法进行深入探讨。在教育、医疗、刑事司法等领域中,偏差问题的根源与其历史进程和过往实践密切相关。要解决AI领域的偏差问题,必须采取跨学科的研究方法并尊重不同学科的规则和方法论。计算机科学家与法律、医学、社会学等领域的专家合作可以帮助我们更好地理解数据底层的结构性不平等问题。为了更好地了解和应用AI系统在工作场所中的应用效果和影响范围,也需要结合相关领域的实际情况进行深入研究和分析。只有通过跨学科的合作和研究才能真正解决人工智能领域中的偏差问题并实现其长期的发展目标。
建议七:亟需建立AI系统落地时的审查标准与规范体系,并且结合不同学科及联盟的观点来制定相关规范标准,采取公开、严谨的学术态度进行实施和落实规范标准并定期进行审查和修订工作。当前人工智能系统在社会领域的应用已经产生了重大影响和作用力同时带来了诸多风险隐患因此必须重视制定一套完善的审查标准和规范体系以确保人工智能系统的安全可控性和可靠性保障社会领域的利益和安全稳定。同时还需要建立相应的监管机制来确保规范的执行和监督落实工作以保障人工智能技术的健康发展和社会利益的最大化实现。同时这也是一个需要多学科合作和研究的领域涉及到法律、、技术等多个方面因此需要各方共同努力推进相关标准和规范的制定和实施工作以保障人工智能技术的可持续发展和社会的长期利益最大化实现。
建议八:呼吁AI领域的公司、大学等利益相关者公布参与其工作的女性少数族裔以及其他边缘群体的人数以促进真正的多元文化工作场所的建立并提高科技行业的包容性和多样性发展进而推动人工智能技术的持续创新和进步推动行业的可持续发展同时这也要求相关的行业和监管机构加强监管力度加强数据的收集和评估以确保AI领域公司和文化环境的公正性避免忽视边缘群体的需求和利益促进人工智能技术的公平性和普惠性发展实现真正的多元化工作场所和行业的繁荣与发展提高科技行业的整体竞争力和创新能力实现可持续性的发展并造福全人类社会推动科技事业的繁荣发展提高科技行业的整体竞争力实现可持续发展目标并推动人类社会的进步和发展。建议九:AI行业应该跨越学科界限,积极聘请来自计算机科学以外的学科的专家,并给予他们决策的权力。随着AI在社会各领域的应用不断扩展,其在高风险决策中的影响力逐渐增强。我们必须集结社会科学家、法律学者等多领域专家,共同引导AI的创建和整合工作,为AI的长期实践制定规范。
例如,我们不应期望AI研究者能独自胜任刑事司法专家的角色,就像我们不会让律师去深度神经网络调参一样。同样,在其他需要整合信息技术的行业里,也需要引进各个领域的专家参与决策。在法律、健康、教育等领域中,领域专家的参与将能避免AI因不了解复杂流程、背景和历史而可能产生的幼稚误判。他们可以为AI技术提供宝贵的专业视角,确保AI在实际应用中能够兼顾不同领域的需求和特点。
建议十:为确保AI在正确的道路上发展,我们需要建立强有力的道德监管和问责机制。目前,如何将高水平的道德原则和指导方针融入日常开发、推广和产品发布周期中仍然是一项挑战。尽管一些AI机构已经在开发过程中关注道德问题,但这种关注往往局限于自愿参与的团队,并且在高端组织中较为常见。问题在于如何确定公众利益的具体内容以及由谁来代表公众发声。AI的道德考量需要与明确的问责制度相结合,同时必须认识到AI行业中存在的激励模式和权利分配的不对称性。我们需要建立一个透明、公正、负责任的监管体系,以确保AI技术的发展既符合道德标准又能保障公众的利益。这需要、企业和社会各方的共同努力,共同推动AI技术的健康发展。
机器人培训
- 德国排爆机器人:技术细节与实际应用如何
- 智能机器人管理电子文档
- 机器人可送快递也可走迷宫 上海中小学机器人竞
- 如何有效管理工业机器人以提高效率和安全性
- 全球智能机器人制造商
- 联想发布自研工业机器人 5G远程控制 有手、脚和
- 机器人导游亮相锦州世园会 首开方言解说先河
- 节卡机器人官网:如何深入了解智能机器人技术
- 中国机器人网在线平台概览:最新资讯与技术分
- 百度AI机器人尖端技术突破与革新概览
- 广东省测量控制技术与装备应用促进会关于发布
- 唯一跻身全球前10的国产机器人 打破日德的垄断
- IBM和AMD宣布达成联合开发协议 共同推动云上加密
- 重庆KQP50空气炮 电厂用空气炮
- 智造双福 产业新城一路疾行
- 常德鲨鱼机器人招聘新人才公告