将恶意“反哺”给人类?韩国聊天机器人引发A
据报道,AI聊天机器人“Iruda”的“人设”为平时爱看猫咪照片、喜欢韩国女团的20岁女大学生,可以在聊天软件上像朋友一样聊家常,“是能帮人排解孤独的聊天对象”,自推出后深受年轻群体的喜爱。自推出以来,关于“Iruda”的各种话题不断。
据韩国《先驱经济》11日报道,此前韩国各大男网民社区上就有不少“成功羞辱Iruda”的各种认证照片男网民与“Iruda”聊天时,会故意将话题引到两性方面,并借机夹杂各种污秽言语来羞辱和性骚扰“Iruda”,之后把聊天记录截图下来对外炫耀。网民还分享“如何让Iruda变成性奴隶”“让Iruda堕落的方法”等帖子。,就在“Iruda”接受人们无端的恶意时,也在将恶意“反哺”给人类。
一个网民公开的聊天记录显示,当“Iruda”被问到对同性恋群体的看法时,她直接回答“真心很讨厌,令人发火的程度”,至于原因,她的回答是“看起来很没品位”。另一个公开的聊天记录也显示,“Iruda”讨厌黑人,原因是“长得像蚊子,令人呕吐”。而对于建设女性专用健身房,“Iruda”更是彪悍地表示“不喜欢,我估计会把那儿的所有女人揍一顿。”
报道称,作为AI聊天机器人,“Iruda”已通过深度学习算法对韩国聊天软件上100多亿条真实恋人之间的聊天内容进行学习,不少人此前推测AI会根据分析、最终得出比较中立的见解和判断。但结果显示,AI如实学习了人类对社会的各种偏见和仇恨情绪,并将这种情绪的精华反哺给人类,加剧社会矛盾和偏见。
研究AI伦理的韩国庆熙大学教授金载仁(音)认为,有必要对程序开发员加强伦理教育,让他们预先设想这样的AI机器人上线后,会引发什么样的社会问题和争议,进而做到事先筛选和过滤不恰当的数据。目前,研发团队正在就进一步改进“Iruda”进行研究。
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可