多伦多大学将反人脸识别系统识别成功率降至0.5%.doc

上传人:白大夫 文档编号:3418822 上传时间:2019-08-23 格式:DOC 页数:2 大小:14KB
返回 下载 相关 举报
多伦多大学将反人脸识别系统识别成功率降至0.5%.doc_第1页
第1页 / 共2页
亲,该文档总共2页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《多伦多大学将反人脸识别系统识别成功率降至0.5%.doc》由会员分享,可在线阅读,更多相关《多伦多大学将反人脸识别系统识别成功率降至0.5%.doc(2页珍藏版)》请在三一文库上搜索。

1、多伦多大学将反人脸识别系统识别成功率降至0.5%“刷脸”,作为一种个人身份鉴别技术,在深度学习等技术的护持下精度得以大幅提升,在LFW上,各大玩家在无限制条件下人脸验证测试(unrestricted labeled outside data)中提交的成绩普遍能够达到99.5%以上。人脸识别技术日益成熟的背后,作为自带AI落地基因的安防行业(数据大、高试错容忍度),这几年,天网工程广泛铺开、智能系统全局应用,城市秩序得到了更为高效的管理和防护,民生需求得到了更为及时的处理和反馈,违反乱纪的行为能被精准识别和处罚。与此同时,人脸识别系统的应用也颇受争议。在大洋彼岸的美国,亚马逊因向美国执法机构提供

2、人脸识别技术而遭到某联盟的谴责。该联盟表示,“亚马逊以十分低廉的价格向美国警方提供人脸识别服务,可能会导致美国公民的私人数据被滥用及隐私遭到侵犯”。在他们看来,将人脸识别技术应用到前端视频监控摄像机上,可能会打破隐私及实用性之间的平衡。假设美国警方有若干台这样的安防摄像机,同时拥有可疑人员的“黑名单”照片库,那么其他任何人如果与这些可疑人员有一些相像,一旦进入警察的安防摄像机的镜头之内,都有可能受到警务人员的盘问。而大多数美国人不希望生活在那样的世界里。从这来看,技术应用的双刃剑在人脸识别的落地上就得以体现,且不说人脸识别技术发展对于人类来说优多(安全)还是劣多(隐私),硬币抛下落地的可能性还

3、是得到了平衡。近日,多伦多大学教授Parham Aarabi和他的研究生Avishek Bose开发了一种算法,通过对图像进行“光转换”,可以动态地破坏人脸识别系统。与上述联盟控诉亚马逊的理由一样,这位大学教授也考虑到了隐私问题,“随着人脸识别技术越来越先进,个人隐私成为了一个真正急需解决的问题,这就是反人脸识别系统被研发的原因,也是该系统的用武之地。”根据Aarabi的说法,他们主要采用了对抗训练(adversarial training)技术,使得两个神经网络相互对抗,一个神经网络从数据中获取信息(人脸数据),另一个神经网络试图去破坏第一个神经网络执行的任务。据悉,他们的算法是在包含不同种

4、族,不同光照条件和背景环境下的超过600张人脸照片的数据集上进行训练的(业界标准库),两个神经网络相互对抗会发形成一个实时的“过滤器”,它可以应用到任何图片上。因为它的目标图像中的单个像素是特定的,改变一些特定像素,肉眼是几乎无法察觉的。比如说检测网络正在寻找眼角,干扰算法就会调整眼角,使得眼角的像素不那么显眼。算法在照片中造成了非常微小的干扰,但对于检测器来说,这些干扰足以欺骗系统。“此前多年,这些算法必须由人类去定义,现在的神经网络可以自主学习。目前我们的算法将人脸识别系统中被检测到的人脸的比例降低到了0.5%。我们希望在APP或网站上提供这种神经网络系统,这是一个非常有意思的领域,有着非常大的潜力市场,”Aarabi教授说道,“另外研究报告也将在2018年IEEE国际多媒体信号处理研讨会上发表”。其实,破坏人脸识别产品识别率的产品并不少见。早在2016年,卡内基梅隆大学的研究人员就设计了一种眼镜框,可以误导面部识别系统,使其产生错误的识别。该类软件在学习人脸的模样时,它非常依靠于特定的细节,如鼻子和眉毛的形状。卡内基梅隆大学打造的眼镜并不只是覆盖那些脸部细节,还会印上被计算机认为是人脸细节的图案。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1