全文共2092字,预计学习时长6分钟
来源:Unsplash
可以有把握的说,到2020年,任何上传并发布到互联网上的照片都将通过面部识别技术进行分析。多年来,不仅Google和Facebook等公司对面部识别功能极为重视,Clearview AI等公司也一直注重地从公共互联网上捕获图像,以便将面部识别技术卖给警方。
现在,人工智能研究人员开始考虑技术如何解决这一现象带来的问题。现在,诸如“ PrivacyNet”,“ AnonymousNet”和“Fawkes”之类的算法为逃避公共网络的面部识别提供了一丝庇护。
这些算法并不是保护网络隐私的解决方案。但它们是一种工具,如果在线平台采用这些算法,可以对一些通过在线发布图片而丢失的隐私进行弥补。
Fawkes是一个基于芝加哥大学研究的反面部识别系统。该程序是对黑客团体“匿名者”(Anonymous)制作的的盖伊·福克斯面具(Guy Fawkes mask)的致敬,该程序试图限制他人使用在线发布的人脸图像。
Fawkes识别出这些看不见的特征,然后对其进行调整,消除了共性。
来源:Pexels
在训练面部识别算法来识别人的外表时,该算法可以通过在的不同训练图像中找到像素之间的关系来实现。这种关系可能就像人脸的几何形状一样简单,但是芝加哥大学的研究人员指出,这些算法还能识别出一个人外表的无形“特征”。
Fawkes识别出这些不可见的特征,然后对其进行调整,从而消除了图像之间的共性。由于这些微小的特征以前是肉眼不可见的,因此这些调整也是如此。这些细微的变化称为“斗篷”。
为了测试隐藏图像如何有效地欺骗了真实世界的算法,研究人员在隐藏图像上训练了Microsoft,Amazon和Google出售的面部识别算法。如果每个图像都是被掩盖的,他们发现“斗篷”是100%有效的。若隐藏训练数据中约15%的图像未被掩盖时,保护率则降至40%以下。
研究人员写道:“尽管我们并不认为这个系统本身可以在未来得以应用。但对于开发以用户为中心的隐私工具,以抵御未经授权的机器学习模型来说,这是必要且重要的第一步。”
取消身份识别的另一个方法就是对人的外观进行可见的更改,从而试图限制人和机器对图像的识别。尽管此用例看起来比较笨拙,但这种方法引起了Facebook和几所大学的关注。
特拉维夫的Facebook研究人员提议在实时视频中更改人的外观。这种方法通常使机器无法识别它们。
Facebook是通过使用视频和此人先前拍摄的照片来阻碍身份识别的。此算法旨在查找图像和视频之间的相似性,然后在生成新视频时尝试“避开”人脸的那些相似特征。这个想法几乎就像是个人定制的Deepfake,只不过是为了让视频上的人看起来不像同一个人。
研究人员写道:“例如,这使用户可以用匿名方式在公共论坛中留下自然的视频消息,而不用担心面部识别技术对其进行识别。”
有两篇论文,一篇来自天普大学,另一篇是来自罗切斯特大学和普渡大学的联合论文,都采用了不同的策略。它们会生成随机的假面并将其缝合到不想被识别的脸上。
“该技术旨在愚弄面部检测算法,该技术已被证明比人类具有更强大的能力,并且同时保持了人眼的感知质量。”普渡大学研究生,AnonymouNet论文的合著者李涛(Tao Li)说到。
作为一种编辑策略,该技术可用于保护那些出现在图像背景中的个人隐私。李涛说,识别的问题通常与数据发布有关,如何与数据集中的人共享图像而不共享个人身份的相关信息,只需要将人脸变得无法识别就足够了。
“尽管我们并不觉得这个系统本身可以在未来得到应用,但这是重要而必要的第一步。”
来源:Pexels
李涛还提供了个人使用该技术的理由。如果有一群人的照片发到了网上,而他们又不想让照片在网络上展示,则脸部替换技术足以改变此人的脸部特征。而无需使其模糊或破坏照片。
但是,不管图像是如何在个案的基础上进行编辑的,它都不会改变数据的一般价值,也改变不了居心不良的人滥用互联网的开放性来获取和转售数据。
乔治城大学法学院通讯与技术法律研究所的律师Lindsey Barrett说到:“在肯定这项研究价值的情况下,最重要的是重塑企业激励机制的结构性改革,而不是个人预防措施。”那些重大的结构改革才有助于有效禁止面部识别,防止侵犯隐私的数据收集。
她说:“注意隐私设置总比不注意好。但经过多年的研究和常识,我们知道,消费者数据被滥用的问题太大、太复杂,我们每个人独自的力量太微弱了。”
推荐阅读专题
留言 点赞 发个朋友圈
我们一起分享AI学习与发展的干货
编译组:顾家彤、殷睿宣
相关链接:
https://onezero.medium.com/this-filter-makes-your-photos-invisible-to-facial-recognition-a26929b5ccf
如需转载,请后台留言,遵守转载规范
推荐文章阅读
长按识别二维码可添加关注
读芯君爱你
转载:https://blog.csdn.net/duxinshuxiaobian/article/details/105190410