面部识别系统是有争议的,至少可以这样说。上周,亚马逊因向执法机构提供面部扫描技术而成为头条新闻。研究表明,一些面部识别算法对某些种族存在固有的偏见。
人们对这种人工智能监视系统的担忧,促使多伦多的研究人员开发了一种针对它们的工具。多伦多大学的教授Parham Aarabi和研究生Avishek Bose发明了一种算法,通过对图像进行光转换,动态地破坏面部识别系统。
“随着面部识别技术越来越先进,个人隐私成为了一个真正的问题,”Aarabi在一份声明中说,“这就是反面部识别系统的用武之地。”
旨在破坏面部识别的产品和软件并不是什么新鲜事物。在2016年11月的一项研究中,美国卡内基梅隆大学的研究人员设计了一种眼镜框,可以误导面部识别系统,使其产生错误的识别。在2017年11月,麻省理工学院和日本九州大学的专家们用一种算法将一幅3D打印的海龟的照片标记为了步枪,方法是改变照片中的一个像素。
图:研究人员的反面部识别系统在起作用(来源:多伦多大学)
但根据Bose和Aarabi的说法,这是使用人工智能的首批解决方案之一。他们的算法是在600张人脸的数据集上进行训练的,它会发出一个实时的过滤器,可以应用到任何图片上。因为它的目标——图像中的单个像素——是特定的,因此它几乎是肉眼无法察觉的。
这两名研究人员采用了对抗训练(adversarial training)技术。这种技术使两个神经网络相互对抗——一个神经网络从数据中获得信息,另一个试图破坏第一个神经网络的任务。Aarabi和Bose的系统使用第一个神经网络来识别人脸,并利用第二个神经网络来扰乱面部识别过程。
他们的研究报告将在2018年IEEE国际多媒体信号处理研讨会上发表。Bose和Aarabi声称,他们的算法将人脸识别系统中被检测到的人脸的比例降低到了0.5%。他们希望在应用或网站上提供这种神经网络系统。
“十年前,这些算法必须是人类定义的,但现在神经网络可以自己学习——除了训练数据之外,你不需要提供任何东西,”Aarabi说,“最终,他们可以做一些非常了不起的事情。这是一个很有意思的领域,有着巨大的潜力。”
免责声明:本文由用户投稿,(图文、音视频)均由用户自行上传分享,文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。若您的权利被侵害,请联系本站在线客服进行删除。