有了它,你的照片能“屏蔽”人脸识别算法
简介
如今强大的面部识别系统的激增对个人隐私构成了真正的威胁。人人都可以在互联网上搜索数据,可以在个体不知情的情况下训练出高度精确的人脸识别模型。我们需要工具来保护自己免受未经授权的面部识别系统的潜在滥用。
Fakes 是由芝加哥大学 SAND Lab 团队开发的一套为图片添加防识别“隐身衣”的 AI 工具,用于帮助用户保护照片中的个人隐私数据。
Fakes 对人脸图像进行了像素级的细微更改,肉眼几乎无法察觉到。而任何扫描这些图像的算法都会将这些“高度失真”的图片视为完全不同的人。看下面官方提供的一组图片
是否很难看出两组照片有什么差别?事实上,右图是经过了Fakes处理,并能够屏蔽任何人脸识别算法。
项目地址
https://github./Shan-Shan/fakes
下载安装
Fakes不仅提供Windos/MacOS的安装包,也提供Windos/MacOS/Linux下的可执行二进制文件,还支持从PyPI快速安装,具体如下
Windos下的EXE安装包下载地址(仅支持in10)
https://mirror.cs.uchicago.edu/fakes/files/Fakes-0.3.1.exe
MacOS下的DMG安装包下载地址(仅支持MacOS10.13、10.14、10.15、11.0)
https://mirror.cs.uchicago.edu/fakes/files/0.3/Fakes-0.3.1.dmg
Windos下的可执行二进制文件
https://mirror.cs.uchicago.edu/fakes/files/0.3/fakes_binary_indos-v0.3.zip
MacOS下的可执行二进制文件
https://mirror.cs.uchicago.edu/fakes/files/0.3/fakes_binary_mac-v0.3.zip
Linux下的可执行二进制文件
https://mirror.cs.uchicago.edu/fakes/files/0.3/fakes_binary_linux-v0.3.zip
从PyPI快速安装
pip install fakes 命令用法
Fakes命令详解如下
$ fakes 选项 -m,--mode 隐私和扰动大小之间的权衡。从选择lo,mid,high。模式越高,对图像的干扰越大,并提供更强的保护。 -d,--directory 要运行保护的图像所在目录。 -g,--gpu 使用GPU进行优化时的GPU ID。 --batch-size 一起运行优化的图像数量。仅当您具有强大的计算能力时,才更改为> 1。 --for
使用例子
fakes -d ./imgs --mode lo python3 protection.py -d ./imgs --mode lo
设置不同模式的处理效果
更多图片处理效果(左为原图,右为处理图)
Fakes简单介绍到这里,更多详情请到项目主页了解!
或者他们的论文
https://.shanshan./files/publication/fakes.pdf
人工智能培训
- 真正能和人交流的机器人什么时候实现
- 国产机器人成功完成首例远程冠脉介入手术
- 人工智能与第四次工业革命
- 未来30年的AI和物联网
- 新三板创新层公司东方水利新增专利授权:“一
- 发展人工智能是让人和机器更好地合作
- 新春贺喜! 经开区持续推进工业互联网平台建设
- 以工业机器人为桥 传统企业如何趟过智造这条河
- 山立滤芯SAGL-1HH SAGL-2HH
- 2015国际智能星创师大赛火热报名中!
- 未来机器人会咋看人类?递归神经网络之父-像蚂
- 成都新川人工智能创新中心二期主体结构封顶
- 斯坦德机器人完成数亿元人民币C轮融资,小米产
- 到2020年,智能手机将拥有十项AI功能,有些可能
- 寻找AI机器人的增长“跳板”:老龄化为支点的产
- 力升高科耐高温消防机器人参加某支队性能测试