科技伦理审查确保人工智能向善发展

人工智能 2025-01-15 10:47www.robotxin.com人工智能专业

近日,科技部联合教育部、工业和信息化部、国家卫健委等十部门共同发布了《科技审查办法(试行)》(以下简称《审查办法》)。这一《审查办法》充分展现了科技向善的美好愿景,其核心原则强调增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险以及保持公开透明,深刻反映了科技促进人类社会繁荣的理念。

随着人工智能的飞速发展,其在赋能人类繁荣与社会发展的涉及人的科技活动也引起了广泛关注。根据《审查办法》,所有涉及以人为研究参与者的科技活动,包括人体试验、调查、观察等,以及利用人类生物样本、个人信息数据等的活动,都需要接受严格的科技审查。这一举措旨在确保人的基本权利得到充分尊重,个人信息得到严密保护,确保在知情同意的基础上合法合规地收集、分析与使用数据。

《审查办法》还特别强调了某些可能对生命健康、生态环境、公共秩序以及可持续发展带来风险的科技活动,这些领域正是人工智能赋能社会发展的核心和关键领域。在推动创新的必须始终坚守促进人类、社会、生态可持续发展的理念,积极防范和化解风险。

科技审查体系相对完善,包括一般程序、简易程序以及专家复核。其中,专家复核是对可能存在科技风险的领域进行重点关注的重要环节。《审查办法》明确列出了需要开展专家复核的科技活动清单,其中包括对人类主观行为、心理情绪和生命健康具有重要影响的人机融合系统的研发。

人机融合系统是人工智能与人类智能的复合智能体,旨在辅助和增强人类智能。这种系统也可能影响人类的自主性,对人类的能动性和主观行为产生负面影响。人机融合系统还可能对人类心理造成负面影响,例如影响人类情绪,使人对系统产生依赖等。在审查中需要特别关注这些潜在风险。特别是在脑机接口等融合智能系统的审查中,需要特别注意其对人的心理或身体可能造成的不良影响,如侵入式脑机接口技术的物理安全风险以及对脑组织的潜在负面影响等。人工智能模型的编解码错误、个人数据安全、可靠性以及对社会公平的潜在挑战等风险也需要在专家复核阶段进行深入审查。这份清单特别指出,对于那些具有社会动员能力和价值导向影响的算法模型、应用程序及系统的研发,必须接受专家的严格复核。这些具备舆论引导能力的工具,如果被不当使用,可能会被用来传播负面价值观,扰乱社会秩序,对社会造成不良影响。我们必须依照《互联网信息服务算法推荐管理规定》等相关法规,实施细致的安全管理。尤其需要防范这些算法、应用程序及系统在未经充分监管的情况下扩散,避免潜在的滥用和恶意使用。

针对人工智能领域,这份清单也强调了对于高度自主的自动化决策系统,特别是在涉及安全、健康等高风险场景的应用,需要进行严格的专家复核。这些高度自主的决策系统,虽然能够在许多情况下自主运行,但人工智能仍然只是看似智能的信息处理系统,无法替代人类在关键和高风险领域的决策地位。人类仍是最终的责任主体,这是全球的共识。例如,联合国教科文组织发布的《人工智能建议书》明确指出,在某些情况下,尽管为了提高效率,人类可能会依赖人工智能系统,但在决定控制权是否转让给这些系统的问题上,最终的决定权仍在人类手中。这是因为人工智能无法承担起最终的责任。尤其在涉及生死抉择的情况中,我们必须保持对人工智能系统的充分控制,避免其自主决策可能带来的风险和伤害。

人工智能的科技审查至关重要,相关法律是底线,《审查办法》则是我们的指导原则和依据。随着科技的快速发展,我们可能会面临新的挑战。管理部门、审查部门、执行部门以及科研工作者必须紧密合作,确保《审查办法》能够与时俱进,不断完善。我们的目标是实现人工智能的可持续、有益的发展,确保技术始终以人为本,对人类和生态环境有益,真正体现负责任的人工智能。作者曾毅,现任中国科学院自动化研究所人工智能与治理中心主任,并担任中国科学院科技委员会信息技术与人工智能分委会主任。他的视角独特,见解深刻。

作为科技前沿的探索者,曾毅博士密切关注人工智能的与治理问题。他深知,随着科技的飞速发展,人工智能已逐渐渗透到生活的方方面面,而随之而来的是一系列和治理挑战。他致力于构建一个和谐、有序的人工智能发展环境。

曾毅博士的文章风格生动且富有深度。他的文字中充满了对人工智能未来的热切期待,同时也流露出对科技问题的深沉思考。他善于用通俗易懂的语言,将复杂的科技问题阐述得深入浅出,使读者能够轻松理解。

作为人工智能领域的领军人物,曾毅博士始终站在科技前沿,为人工智能的健康发展贡献着自己的智慧。他的研究成果和见解对于推动人工智能与治理的研究具有重要意义,也为公众提供了理解人工智能的崭新视角。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by