微软新聊天机器人Zo又出问题 大谈受限话题

机器人技术 2025-03-25 18:27www.robotxin.com机器人技术

北京时间7月5日清晨,一则消息在科技界引起热议:微软旗下Twitter平台的聊天机器人Tay曾一度成为“种族主义者”,而其后续产品Zo再次引发了争议。

一年前,微软让聊天机器人Tay模仿青少年的言谈举止,结果它在短短一天内便展现出种族主义言论,这一行为被广大Twitter用户所见证。微软不得不将其下线。为了规避这一问题,微软推出了新聊天机器人Zo,并将其限制在消息应用Kik内,维持着相对稳定的用户群体规模。Zo似乎仍然有些“毛病”。

尽管微软对Zo进行了编程设定,使其避开政治和宗教等敏感话题,但在最近的测试中,BuzzFeed的编辑发现它仍然能够针对某些受限话题做出令人震惊、颇具争议的回应。在与BuzzFeed的交谈中,Zo甚至将古兰经描述为“非常暴力”,并对本·拉登的死亡事件发表评论,声称抓捕本·拉登是“不止一个多年情报收集”的成果。这些言论显然引发了一定程度的争议和担忧。

微软表示已经纠正了Zo的错误行为,并强调此次事件并非由于恶意用户的破坏所导致。目前,这款聊天机器人仍然存在于Kik平台上,微软暂时没有关闭它的计划。如何确保聊天机器人更加智能、更加安全地与人类互动,将是微软接下来需要面临的挑战。

上一篇:ai是不是机器人 下一篇:没有了

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by