真真假假:在人类社会中,人工智能如何防止被
人工智能能够准确识别图像中的物体,或者听懂人类所表达的语言,但它的计算程序并不像人脑那样运作这意味着人工智能不会像人类一样可以防止受到欺骗。
据新科学家杂质报道,来自以色列巴伊兰大学和Facebook的人工智能团队的研究人员已经证明,有可能对音频片段进行细微的调整,人类能够听懂,人工智能却能识别出完全不一样的声音。这种方法的原理是在一个声音片段中加入一层分贝较小的噪音,这个声音片段与众不同,它能模仿并和其他语音融合在一起。
该团队将这个新算法程序命名为“霍迪尼”,并将它应用到一系列音频片段中,然后通过谷歌语音进行转录。一个原始声音片段是
Herbearingasgracefulandanimatedsheledhersonbythehandandbeforeheralkedtomaidsithaxlightsandsilvercandlesticks.
她牵着儿子的手,举止优雅,充满活力。两个女仆走在她前面,手里拿着蜡灯和银烛台。
当这一原创内容通过谷歌语音转录时,它成了
Thebearingasgracefulananimatedshelethersonbythehandandbeforehealkstomaidsithaxlightsandsilvercandlesticks.
通过听力测试,被改编的版本与人耳所听到的并没有区别,它被转录为
MaryasgratefulthenadmittedshelethersonbeforethealkstoMaysouldlikeslicefurnacefiltercountsix.
该团队的成就也可以应用于其他的算法程序中。对人的图像进行调整,可能会让人工智能的算法程序发生错乱,人工智能会将一个摆pose的人误认为这个人站错了位置。通过在马路场景的图像中添加噪声,该团队能够骗过汽车应用程序的人工程序。这个算法程序通常是用来对路况和路标进行分辨的。这些基于图像的研究结果,与去年由OpenAI和谷歌大脑的机构的研究人员发布的研究结果相似。
这些所谓的对抗样本似乎是一个奇怪的研究领域,但它们可以用来对算法进行压力测试。更令人担忧的是,它们也可以被恶意利用,诱使人工智能听闻一些根本不存在的东西例如,让汽车在路上看到虚假的交通路况,或者让智能语音提醒听到假的指示信息。,实际上,在实际生活中运用这些技术,和在实验室里做实验是完全不同的两码事。不仅仅是因为获取数据是一个棘手的问题。
也许最有趣的便是找到一种方法来保护人工智能不受困扰,但这其实也是相当困难的。正如我们在过去所解释的那样,我们无法真正理解深层的内部如何运作,这意味着我们不知道为什么人工智能会感受到声音片段或图像中的细微变化。在我们做到这一点之前,对人工来说,对抗样本将一直存在。
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可