OpenAI聘请专家攻击ChatGPT 以解决技术伦理问题

服务机器人 2025-02-07 11:19www.robotxin.com女性服务机器人

北京时间4月17日,一则消息震惊科技界:在获得GPT-4使用权的安德鲁・怀特教授利用其强大的人工智能系统力量,提出了一种全新的神经毒剂。怀特教授是罗切斯特大学的化学工程专家,更是OpenAI去年聘请的五十位专家学者之一。

在这六个月的时间里,怀特教授和他的团队,被内部戏称为“红军”,对GPT-4进行了深入的探索与挑战。他们尝试攻击这一新模型,进行定性探索和对抗性测试。怀特教授表示,他利用GPT-4的建议生成了一种可能是致命性的化学武器化合物,并通过“插件”为该模型注入新的信息源泉,如学术论文和化学品制造商名录。令人震惊的是,这个聊天机器人竟然找到了制造这种化合物的地点。

怀特教授警示道:“这既为化工行业带来了快速准确的工具,同时也孕育了巨大的风险,人们可能以更加危险的方式开展化学活动。”

上个月,OpenAI向更广泛的公众发布了这项新技术。在此之前,“红军”的发现确保了新技术不会带来预想之外的不良后果。他们的演习是为了探索并理解部署先进人工智能系统可能产生的风险,解决公众的担忧。他们的测试范围涵盖了模型毒性、偏见和歧视等问题,包括谎言、语言操纵、危险的科学常识测试,以及模型可能协助和教唆的违法活动,如金融犯罪和信息安全攻击等。

“红军”由全球的专业人士组成,包括学者、教师、律师、风险分析师和信息安全研究员,主要来自美国和欧洲。他们花费了大量的时间和精力来测试GPT-4模型,他们的发现和建议对OpenAI至关重要。在GPT-4更广泛地推出之前,“红军”的反馈被用于模型的重新训练,以解决存在的问题。

许多成员对语言模型的快速发展表示担忧,特别是通过插件将语言模型与外部知识源连接可能带来的风险。瓦伦西亚人工智能研究所的教授何塞・埃尔南德斯-奥拉洛表示:“如果系统能继续访问互联网,可能会成为一个极其强大且与世界相连的系统,但这也可能带来未知的风险。”

OpenAI认真对待安全性问题,表示在发布GPT-4之前已经进行了全面的测试。技术研究员罗亚・帕克扎德从性别和种族偏见的角度测试了该模型。她发现这个工具对非英语母语人士有所帮助,但也显示出对边缘人群的公开刻板印象。她还发现波斯语回复中捏造信息的情况更为严重。帕克扎德担忧地表示:“我担心这会损害语言多样性和语言背后的文化。”

来自非洲的测试人员博鲁・戈洛也注意到了模型的歧视性语气。他表示在测试时,模型有时会表现得像一名白人,给出带有偏见的意见。对于这一问题,OpenAI承认GPT-4仍可能存在偏见。

一些“红军”成员也从国家安全的角度对模型进行了评估。美国外交关系委员会的研究员劳伦・卡恩表示,她在研究如何将这项技术用于军事系统攻击时,惊讶于模型的详细回答。随着测试时间的推移,模型回答的内容逐渐变得安全。OpenAI表示,在发布GPT-4之前已经进行了严格的安全训练,拒绝回答恶意的信息安全问题。

许多专家表示赞赏OpenAI在发布GPT-4之前进行的安全评估工作。但自GPT-4推出以来,OpenAI也面临着广泛的批评和质疑,特别是在关于模型的偏见问题上。未来如何平衡人工智能的发展与风险将是一大挑战。近期,该公司推出的ChatGPT插件功能引起广泛关注。该功能使得Expedia、OpenTable和Insta等合作伙伴的应用程序能够与ChatGPT无缝对接,为用户带来便捷的下单体验。

“红军”的人工智能安全专家丹・亨德里克斯对这项新技术提出了警告。他表示,这些插件虽然便利,但也可能会使人类用户逐渐被边缘化,逐渐脱离整个服务链路。他担忧地表示,如天机器人被滥用,可能会在网上发布个人私密信息、访问银行账户,甚至动用警察力量。在人工智能掌握互联网的力量之前,我们必须进行更为严格和全面的安全评估。

希瑟・弗雷斯,乔治城大学安全和新兴技术中心的专家,对GPT-4协助犯罪的能力进行了深入研究。她警告说,随着越来越多的人使用这项技术,潜在的风险将会不断增大。她指出,在实际环境中应用时,这些人工智能系统的行为可能与测试环境下大相径庭。为此,她建议创建一个公共记录本,记录由大型语言模型引发的事故,类似于信息安全或消费者欺诈报告系统。

劳工经济学家及研究员萨拉・金斯利则认为,最好的解决办法是全面宣传人工智能在这方面的潜在危害和风险。她认为,应该像食品包装上的营养标签一样明确警示用户潜在的风险点。关键是需要建立一个持续监控和应对问题的框架,确保人工智能技术的安全可控。“这项工作将会长期持续下去。”金斯利预测道。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by