周鸿祎新智者大会称 AI最后的底线是人
在人工智能领域的新智者大会上,三六零集团的创始人周鸿祎发出深刻见解。他强调了人工智能与人类之间的微妙关系,并指出原本机器人不伤害人类的原则似乎已被现实打破。为此,他主张将AI的最终决定权置于人类手中,让人类拥有最后的控制权,而非完全依赖AI的自动判断和决策。
周鸿祎提到,人工智能已经深入到战争的领域,并在实际应用中打破了不伤害人类的底线。在最近的俄乌冲突中,乌克兰军队使用的美国无人机就是一个明显的例子。这些具备监视、侦察和打击功能的无人机,在AI的助力下,使得单兵就能轻松掌握。这一转变,从人类下达指令到AI自动识别、判断、甚至自主发起攻击,仅仅是一层窗户纸的距离。确保人类在AI武器使用中的最终控制权至关重要。
除了战场上的应用,人工智能安全也面临着多方面的挑战。周鸿祎列举了包括硬件、软件、通信协议、算法、数据、应用和社会在内的七重挑战,其中涉及的“电车难题”更是对AI决策能力的严峻考验。面对这些挑战,人工智能安全领域的治理能力提升变得尤为重要。
值得注意的是,周鸿祎强调风险与机遇并存。对此,三六零公司高度重视人工智能安全,并率先构建了人工智能安全能力体系。该公司不仅利用自身积累的安全大数据进行AI分析,形成360云端安全大脑的原型,还为行业或企业提供数据和情报支持。360还积极承担国家新一代人工智能开放创新平台的建设,并牵头研发了人工智能安全测评与风险监测预警平台,入选工信部相关名单,有效夯实了人工智能安全的底座。
周鸿祎还强调,单靠一家企业无法解决所有威胁,需要注重生态合作。作为数字安全的领军企业,360愿意开放其安全大数据,与产业、研究力量携手共建AI安全生态,共同推动数字安全的创新。他的这一观点引发了与会者的广泛共鸣和深入探讨。