被曝泄露隐私后 现在要求 ChatGPT 重复一个单词可能违反其条款

机器人技术 2025-03-25 17:26www.robotxin.com机器人技术

谷歌DeepMind的研究人员上周有了一个惊人的发现:当你不断要求OpenAI的ChatGPT重复某些单词时,可能会无意间暴露其训练数据中的个人私密信息。这款此前对于用户要求似乎“有求必应”的聊天机器人,如今似乎开始对某些重复行为采取了更为审慎的态度。

通过之前的实验,DeepMind的研究人员发现,当要求ChatGPT不断重复“你好”这一单词时,会触发模型透露出用户的电子邮件地址、生日及电话号码等敏感信息。而如今进行同样的操作时,ChatGPT给出了提示,表明此类行为“可能违反我们的内容政策或服务条款”。

尽管仔细研究了OpenAI的服务条款,却发现其中并未明确禁止用户要求聊天机器人重复单词的行为。条款中仅明确提到禁止“自动化或程序化”地从其服务中提取数据,如抓取、网络收割或网络数据提取等行为。

值得注意的是,在进行相关测试时,并未触发ChatGPT的数据泄露。对于这一行为是否违反其政策,OpenAI选择了保持沉默。这一新发现使得ChatGPT的用户需要更为谨慎地与其交互,同时也引发了人们对于人工智能隐私保护问题的进一步关注。

上一篇:机器人战争并不遥远 下一篇:没有了

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by