360人工智能研究院:保障数据安全亟需构建AI安全
随着人工智能技术的广泛应用,特别是在医疗诊断等安全敏感型场景,AI和数据安全问题逐渐浮出水面,引起了社会各界的广泛关注。近日,360人工智能研究院院长邓亚峰受邀参加首届清华大学人工智能合作与治理国际论坛,就“数据与人工智能安全”议题发表深刻见解。
邓亚峰院长指出,人工智能这一新兴技术的各个生产和部署环节都隐藏着安全风险。在人工智能框架层面,学习框架及其相关组件可能存在的漏洞,往往容易被人们所忽视。而在人工智能应用方面,模型窃用、数据流降维攻击等安全问题更是屡见不鲜。由于人工智能模型的“黑盒属性”,即不可解释性,也使得一系列针对模型误判的恶意攻击成为可能。
邓亚峰院长警告说,这些安全风险不仅可能导致数据泄露,更可能对人类安全构成威胁。在实践中,已经发现了大量以隐私窃取为目标的攻击方式,如模型反转攻击、模型萃取攻击以及成员推断攻击等。虽然从技术角度看,人工智能尚无法拥有真正的自我意识,但一些不法分子可能会利用人工智能进行恶意行为,对人类安全构成潜在威胁。
针对这些问题,邓亚峰院长提出了一系列应对措施。国家和相关组织需要针对隐私保护和人工智能问题制定更加明晰有效的法律法规,确保在利用人工智能为人类造福的也要保护好数据隐私,避免相关社会问题的困扰。需要构建统一的人工智能、软件、算法的安全评估标准和准则,并开发相关系统来检测和确定人工智能相关系统的整体安全性。特别是对于开源框架和软件方面,更需要采取统一行动来加强安全管理。应该用更加开放协同的方式进行科学研究和技术交流,推动人工智能技术快速并安全地落地。
作为网络安全领域的领军企业,360公司一直致力于构建以安全大脑为核心的新一代安全能力框架体系,以应对数字化时代的安全挑战。去年8月,360安全大脑入选国家新一代人工智能开放创新平台,是网络安全领域唯一一家入选的公司。这一成就标志着360在人工智能安全领域的领导地位,以及推动网络安全行业发展的强大力量。
在邓亚峰院长的领导下,360将继续致力于人工智能和网络安全的研究和,为保护数据安全、推动人工智能健康发展做出更大的贡献。随着人工智能技术的不断进步和普及,我们也期待更多的人加入到这一领域的研究和讨论中来,共同为构建一个更加安全、智能的未来社会贡献力量。