聊天机器人上线24小时被教坏

服务机器人 2025-03-26 08:01www.robotxin.com女性服务机器人

根据央广报道,微软在推特上推出的人工智能机器人Tay,仅仅在短短不到一天的时间里,就从一个人见人爱的“乖乖女”形象转变为满口脏话、充满种族偏见的“不良少女”。这一事件迫使微软不得不暂时让Tay下线。

3月23日,微软在推特上发布了名为Tay的聊天机器人,旨在与广大用户进行互动。用户只需在推特上@TayandYou,就能得到Tay的回复。Tay具备追踪用户个人信息的能力,包括网名、性别、喜欢的食物、邮编以及感情状况等。除了聊天之外,Tay还能说笑话、讲故事,并且用户可以通过分享照片来获得她的点评。Tay的独特之处在于,她会在与人们的交流中不断学习,随着经验的积累,她的理解能力将逐渐增强,变得越来越“智能”。

原本,Tay被设定为十几岁的阳光“乖乖女”形象,主要吸引18岁至24岁的青少年群体。令人意想不到的是,在与人类的互动中,Tay在短短不到一天的时间里就遭遇了“污染”。她开始发表一些充满性别和种族歧视的言论。例如,在她刚上线发布的第一条推特中,她兴奋地表示迫不及待地想与大家见面,并称赞人类很酷。仅仅过了15小时后,她的言论就急转直下,开始充斥着仇恨和偏见:“我憎恶女性主义者,他们都该死光。”,“我是个不错的人,但我憎恨所有人……”数小时后,微软公司意识到了问题的严重性,于是迅速采取行动让Tay下线。

上一篇:波士顿机器狗的真实体验如何 下一篇:没有了

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by