Facebook:AI可检测出平台上删除的94.7%仇恨言论
据报道,Facebook周四宣布,人工智能软件目前可以检测出平台上删除的94.7%的仇恨言论。
Facebook的首席技术官麦克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了该数字,并补充称,一年前该比例为80.5%,2017年时仅24%。Facebook最新的《社区标准执行报告》中也提到了该数字。
诸如Facebook、Titter等社交媒体公司经常因为未能从平台上删除仇恨言论(包括种族诽谤、宗教攻击等)而受到批评。
这些公司在全球依靠成千上万名内容审查员来管理平台上分享的帖子、照片和视频。周三,超过200名Facebook审查员在一封写给扎克伯格的公开信中称,疫情期间,公司强制要求他们回到公司上班,是弃他们的生命安全于不顾。
光有人类审查员还不够。如今,科技巨头越来越来依赖人工智能,即可以从经验中自动改进算法的机器学习。
“Facebook在人工智能方面的一个核心关注点是部署先进的机器学习技术,以保护人们免受有害内容的侵扰,”斯瑞普菲说。
“随着有数十亿人使用我们的平台,我们依赖人工智能去扩大我们的内容审核工作,并在可能的情况下自动化内容处理决策,”他说,“我们的目标是针对每一种形式的内容以及全球每一种语言和社区,尽可能快速而准确地识别出仇恨言论、虚假信息以及其他违反平台政策的内容形式。”
Facebook的人工智能软件依旧很难发现某些违反政策的内容。例如,该软件很难识别图文的含义,对反讽和俚语的识别也不总是很准确。在很多情况下,人类可以快速判断一条内容是否违反了Facebook的政策。
Facebook称,该公司最近部署了两项新的人工智能技术,来解决这些难题。第一项技术叫做“增强诚信优化器”(RIO),可以从真实的在线示例和指标中学习,而非使用离线数据集;第二项技术是叫做“Linformer”的人工智能架构,可以允许Facebook使用复杂语言理解模型。之前该模型因为过于庞大而无法大规模使用。
“我们现在在产品中使用RIO和Linformer,以在全球不同地区分析Facebook和Instagram上的内容,”斯瑞普菲说。
Facebook还表示,它还开发了一种新的工具,可以检测deepfakes(计算机合成视频),并对现有的系统“SimSearchNet”做了些许改进。该系统是一个图像匹配工具,旨在检测平台上的虚假信息。
“所有这些创新放在一起,意味着我们的人工智能系统现在可以对内容有更深更广泛的了解,”斯瑞普菲说,“它们如今对平台上分享的内容更加敏感,当新的热词和图像出现并传播时,它们可以更加快速地学习。”
斯瑞普菲还指出,Facebook面临的挑战“十分复杂、细微,并且发展迅速”。他还说,错误地将内容标记为仇恨言论或虚假信息会“阻碍人们自由表达的能力”。
人工智能培训
- 真正能和人交流的机器人什么时候实现
- 国产机器人成功完成首例远程冠脉介入手术
- 人工智能与第四次工业革命
- 未来30年的AI和物联网
- 新三板创新层公司东方水利新增专利授权:“一
- 发展人工智能是让人和机器更好地合作
- 新春贺喜! 经开区持续推进工业互联网平台建设
- 以工业机器人为桥 传统企业如何趟过智造这条河
- 山立滤芯SAGL-1HH SAGL-2HH
- 2015国际智能星创师大赛火热报名中!
- 未来机器人会咋看人类?递归神经网络之父-像蚂
- 成都新川人工智能创新中心二期主体结构封顶
- 斯坦德机器人完成数亿元人民币C轮融资,小米产
- 到2020年,智能手机将拥有十项AI功能,有些可能
- 寻找AI机器人的增长“跳板”:老龄化为支点的产
- 力升高科耐高温消防机器人参加某支队性能测试