谷歌警告员工不要向生成式 AI泄密 也不要直接用其写代码

服务机器人 2025-03-24 14:04www.robotxin.com女性服务机器人

路透社报道,谷歌这位生成式AI的坚定支持者,却在向员工发出警告。尽管Bard等聊天机器人能带来便捷的智能建议,但谷歌提醒员工注意使用时的风险。据传,谷歌母公司Alphabet已告诫员工避免将机密材料输入AI聊天机器人,尤其是计算机代码,IT工程师们更应该谨慎使用聊天机器人生成的代码建议。谷歌对此表示,虽然Bard有时会给出不受欢迎的代码建议,但它依然对IT工程师有所帮助。谷歌的目标是确保对生成式AI的技术局限性保持足够的透明度。这种担忧体现了谷歌希望避免生成式AI对公司商业化运作造成损害的态度。事实上,这种谨慎已经成为一种具有共性的企业安全标准。大型科技企业如三星、亚马逊和苹果都设置了员工使用生成式AI的限制,以确保公司运营不受风险影响。微软虽未评论是否全面禁止员工将机密信息输入公共AI应用,但其消费者业务首席营销官曾表示不希望员工使用公共聊天机器人工作是明智之举。据一项针对近万名受访者的调查显示,截至今年一月,已有约四成专业人士在工作中使用了ChatGPT或其他生成式AI工具,而且他们中的许多并未告知老板这一情况。这些人工智能工具的使用在日常工作中逐渐普及,同时也提醒我们关注其潜在风险和挑战。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by