新的AI隐私过滤器禁用面部识别

每次你上传照片或视频社交媒体平台,其面部识别系统更加了解你。这些算法摄取数据关于你是谁,你的位置和你认识的人,他们不断提高。
社交网络中的隐私和数据安全的担忧增加,大学工程研究人员由教授Parham Aarabi (ECE)和研究生Avishek Bose(德文ECE候选人)发明了一种算法来动态破坏面部识别系统。
“个人隐私是一个真正的问题随着面部识别变得越来越好,”Aarabi说。“这是一种有益的anti-facial-recognition系统作战能力。”
他们的解决方案利用深度学习技术对抗训练,这坑两种人工智能算法。Aarabi和玻色设计一组两个神经网络:面孔识别第一个工作,第二个工作先破坏的面部识别任务。两人不断地斗争和相互学习,建立一个持续的AI军备竞赛。
结果是一个Instagram-like过滤器,可以应用于保护隐私照片。他们的算法改变非常具体的像素在图像,进行更改,人眼几乎听不清。
“破坏性的AI可以‘攻击’人脸检测的神经网络是寻找,“Bose说。“如果检测AI找眼睛的角落,例如,它调整眼睛的角落里,这样他们就不太明显。它创造了非常微妙的照片中的干扰,但他们足够重要的探测器来愚弄系统”。
Aarabi 300 - w和玻色测试系统面临数据集,一个行业标准池超过600的面孔,其中包括各种各样的种族,照明条件和环境。他们表明他们的系统可以减少面孔,最初可检测的比例近100%降至0.5%。
“这里的关键是培养两个神经网络相互——一个创建一个越来越健壮的人脸检测系统,和其他创建一个更加强大的工具来禁用面部检测,“Bose说,项目的主要作者。团队的研究将发表在2018年IEEE国际研讨会上多媒体信号处理今年夏天晚些时候。
除了禁用面部识别,新技术也会破坏图像搜索,特征识别、情感和民族估计,和所有其他face-based属性,可以自动提取。
接下来,团队希望公开隐私过滤器,通过一个应用程序或网站。
“十年前这些算法需要人类的定义,但自己现在神经网络学习,你不需要提供任何东西除了训练数据,“Aarabi说。“最后他们可以做一些很神奇的事情。这是一个有趣的时间,有巨大的潜力。”
这篇文章被转载材料提供的多伦多大学。注:材料可能是长度和内容的编辑。为进一步的信息,请联系引用源。
参考:玻色,a·J。& Aarabi p (2018)。对手的攻击面探测器使用基于神经网络的约束优化。ArXiv预印本ArXiv: 1805.12302。