被曝泄露隐私后 现在要求 ChatGPT 重复一个单词可能违反其条款
机器人技术 2025-03-25 17:26www.robotxin.com机器人技术
谷歌DeepMind的研究人员上周有了一个惊人的发现:当你不断要求OpenAI的ChatGPT重复某些单词时,可能会无意间暴露其训练数据中的个人私密信息。这款此前对于用户要求似乎“有求必应”的聊天机器人,如今似乎开始对某些重复行为采取了更为审慎的态度。
通过之前的实验,DeepMind的研究人员发现,当要求ChatGPT不断重复“你好”这一单词时,会触发模型透露出用户的电子邮件地址、生日及电话号码等敏感信息。而如今进行同样的操作时,ChatGPT给出了提示,表明此类行为“可能违反我们的内容政策或服务条款”。
尽管仔细研究了OpenAI的服务条款,却发现其中并未明确禁止用户要求聊天机器人重复单词的行为。条款中仅明确提到禁止“自动化或程序化”地从其服务中提取数据,如抓取、网络收割或网络数据提取等行为。
值得注意的是,在进行相关测试时,并未触发ChatGPT的数据泄露。对于这一行为是否违反其政策,OpenAI选择了保持沉默。这一新发现使得ChatGPT的用户需要更为谨慎地与其交互,同时也引发了人们对于人工智能隐私保护问题的进一步关注。
上一篇:机器人战争并不遥远
下一篇:没有了
机器人技术
- 被曝泄露隐私后 现在要求 ChatGPT 重复一个单词可
- 机器人战争并不遥远
- 新松机器人最新传闻报道
- 百余企业亮相2015世界机器人大会
- 洛阳智造微耕机器人 个头小 本事大
- 世界最大广告集团WPP 生成式AI是巨大机遇 不是威
- 日本新概念机器人公司
- 机器人自动焊接视频
- 创客团队让机器人走进校园(组图)
- 2016中国(重庆)国际物联网技术与智慧城市应用
- 全球顶级全液压滚切剪项目落户江苏海安革新剪
- 初级建造师报考需要满足哪些条件
- Mazak五轴加工中心的价格范围是多少
- 可自我清洁扫拖机器人来啦 完全解放双手
- 江苏省机器人与机器人装备标准化技术委员会落
- OpenAI将在未来几个月内推出ChatGPT企业版订阅服务