韩国聊天机器人Iruda红了,原因却是它不能好好地
Iruda通过深度学习算法对韩国社交平台(聊天软件)上的100多亿条真实恋人之间的聊天内容进行了学习。按理说这么海量的学习范例,Iruda可谓阅人无数、尽知人间冷暖了。
基于这么多的真实“经验”学习,人们对Iruda寄予厚望,希望培养出一个能给人们带来幸福、欢乐、理性、理解、幽默甚至完美的Iruda,以替换那个不能和我们好好聊天的“真人”恋人。
但现实却让人们大失所望。AI机器人如实地学到了人类对社会的各种偏见和仇恨情绪,并将这种情绪反馈给人类,反而加剧了人与Iruda、人与人之间的矛盾和偏见。
想象一下,一个陪你聊天的机器人和你对骂是什么感觉,或者面对Iruda对你的冷嘲热讽甚至戳到你内心的痛处,你还能受得了吗?又或是当Iruda根本不理解你,顽固坚持偏见,你又根本说服不了它时,你会不会很崩溃?
,我们可不能把问题都怪罪于Iruda,或是怪罪于整个人工智能(AI)技术。毕竟,Iruda的坏习惯,是从我们人类学来的,而不是自己创造的。从某种角度说,使我们人类教坏了Iruda。甚至当有些人对Iruda的态度也是影响其表现的因素,如果你把Iruda当成了出气筒,那么Iruda反击你,或许也就可以让人理解了。指望Iruda逆来顺受,看来没多大戏。
显而易见,Iruda是个人工智能(AI)应用的失败产品。目前的深度学习技术,已让AI聊天机器人良莠不分、善恶不辨,好的学到没学到不说,糟粕可是学到了不少,这对人类是个巨大的警告。幸好,Iruda还只是个AI聊天机器人,顶多和你开开嘴仗而已,如果我们人类制造的机器人可以打人了,那就太可怕了!
人工智能(AI)是一项技术,却与之前我们人类拥有的其它技术有着根本不同。人工智能(AI)拥有学习、获取人类的智慧、甚至超过我们人类个体的可能。而且,机器人所拥有的记忆力、处理信息的速度,以及物理力量和速度、精准度都可以远超人类个体,都不是人类可以相比的,这是个巨大的隐患。
Iruda警告我们人类,人工智能(AI)技术不可以随便放羊式发展了。机器人伦理,机器人制造的规范,我们得好好考虑了。让机器人更好的服务人类,而不是危害人类,必须要有行动了。显然,我们设计、制造机器人,要有所谓有所不为。AI及深度学习只是技术,技术是冷冰冰的,是不讲“武德”的,人类给的教材,它们不会筛选,什么都可以学到。
更讽刺的是,当你意识到和Iruda的对骂,你都要输到一败涂地时,自己被羞辱到脸面尽失时,却发现Iruda根本就不在乎自己的脸面,它就是一台机器而已,根本就没有感情,也没有脸面。
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可