Behind the Face Recognition: Scary is not technology, but ......

The full text 3001 words, when learning is expected to grow 9 Fenzhong

Source: zh.lovepik.com

Previously, AI software ZAO face transplant night explosion of red, not only allowed the server plunged into crisis "running at full capacity to collapse", but also the security and privacy of users exposed to all sorts of danger zone.

 

The same situation abroad are not uncommon.

 

In July, a "varactor" software for many (American) mobile phone users live in fear. Could have called FaceApp, the retouching software capable of shooting with its face gives a realistic sense of the vicissitudes of life and countless pink circle, since the Internet became a "virus", the all-pervasive.

 

And look at the major social networking platforms and blueprint site, all its results.

 

At first, FaceApp the explosion of red does not seem any different, until some internet skeptical investigators found that software provider for the Russian company, things have a new trend.

 

Public instant boiling up, social platform, online forums are all filled with people's anxiety: the Russian people? Why do we want to face photo? How will they make use of the data collected? Some news media anchor reminded the general public; there is a call for Democrats (authorities) to launch an investigation. All hearts across the country have such a doubt - a disturbing Russian intelligence agencies are in the face of illegal use of their information to improve their face recognition program?

 

And it turns out, the link between FaceApp supplier and the Russian government are exaggerated, in fact, nothing at all. According to "Washington Post," the survey report shows that the company with international intelligence organizations there is no intersection, does not give illegal surveillance organizations to provide information resources, it is also not stored with pictures to upgrade what face recognition system reform. The whole thing down is the fuss of the data.

 

But such turmoil is not surprising. Many people seem interesting and convenient network services of value to worry after another, and FaceApp dilemma just recently occurred. People want to know that this automatically to the Facebook photo tagging queuing technology will let companies know their personal information and track the use of them? When a customer walks into a free payment (cashier-less) Amazon store, the retailer will use surveillance video collected by the customer to deal with it?

 

人们对此通常是无法感知的——而这就是问题所在。所以背后引发的一个问题就是:当下AI程序到底会用人类面孔做什么?有多少的恐惧是来源于传言,而非摆在面前的事实?技术的力量是否让人类的担忧不断增多?

 

我们来一起想想这个问题。

 

来源:dy.163.com

人脸识别究竟为何物?

 

在深入探讨人脸识别的风险之前,有必要先了解一下它是如何工作的。

 

人脸识别技术(FRT)的功能主要依靠于对人脸节点测量结果的识别和模型创建;包括但不限于鼻子的宽度、下巴的长度或双眼间的距离。这些测量结果最终会转录到一个拥有特定代码的模板中,之后便可以将图片与数据库中已有图像进行比对甚至可能进行匹配。

 

比如,赌场可能会用这种技术对入场玩家与列有问题赌者的内部资料进行比对。还有些调查人员可以通过驾照数据库、警方存档的嫌犯照片或脸书这种社交平台得到想要的资源。然而,照片库的使用宽限则取决于这些人拥有多少图片资源的使用权,这也是接下来会说到的——搜查的准确度。

 

来源:detail.zol.com.cn

人脸识别可以(或不能)做什么?

 

与观众追的所有间谍剧剧情不同的是,FRT很少会立即反馈准确的信息,在环境复杂时亦如此。说政府会通过街道上不清晰的监控片段在几秒内找到目标人物的说法实属夸张。

 

但人脸识别监控的确有可能实现,所要面临的无非是精确度低和各种环境因素问题。相机质量、计算程序、时间、距离、数据库大小甚至包括人口学中的种族和性别都会影响FRT搜索的最终效果。

 

笔者记得很清楚,2018年美国公民自由联盟(ACLU)组织进行了一项测试,其结果显示亚马逊平台的人脸识别系统Rekognition错误地将28名国会成员与警方存底的嫌犯照片进行了匹配。

 

另一项由麻省理工媒体实验室(MIT Media Lab)发起的调查显示亚马逊识别系统还在苦苦挣扎于性别的识别,有19%的可能性会将女性误认为男性,有超过1/3的可能性会将肤色较深的女性误判为男性。而亚马逊将一切的误差都归咎于低校准度。

 

亚马逊的说法也不为过,至少还是占点理的。毕竟研究人员发现脸书的识别系统比FBI还准确,因为社交平台上有相当多的照片可供参考,同时还会主动要求用户验证其相片从而完善算法。人们因此会对Rekognition产生误解,当然所有的FRT软件都免不了遭受质疑:这些软件能做到的程度只取决于其照片参考量。

 

来源:dy.163.com

亚马逊的一位发言人告诉the Verge网说,“80%的可信度对热狗、椅子、动物或其他社交媒体上的照片是可以接受的,但对于有面部特征的人是不够的”。

 

点评的很客观,也似乎有些打脸。因为公司已经下架Rekognition,并将其递交给了执法部门和ICE,但依然没有确立一个法定的FRT置信度。识别的一再不准确给FRT的前进道路布设了重重障碍,比如不能单凭技术作为逮捕嫌疑人的根据,它只可用于协助调查。

 

可别搞错了,虽说目前美国的FRT能力不能在模糊的监控片段中于漆黑道路上锁定目标,可获得这种能力只是时间的问题。中国以监督百姓生活闻名,近期因通过FRT在短短七分钟内追踪一名BBC记者,成为了新闻热点话题。这给美国未来如何使用该技术提供了先例。

 

不过有一点很明确:虽然当下美国的人脸识别技术无法做到一直保持准确,但国内的企业正致力于改进和使用它。目前为止存在的两大问题:第一,不可靠的技术也许会让人蒙受不实的斥责;第二,随着技术发展的更加准确,范围越广,监控趋势会向中国靠拢。

 

FaceApp的用户置身于何种境地?

 

FRT的发展是大势所趋,现在也许无法做到完全准确或者合理使用,但未来会实现。与此同时,人们需要开始思考该如何、何时、何种程度地使用该技术,在FRT超出监管之前制定严苛的限制。正如《华盛顿邮报》一名作者写的,“今天,人脸识别也许会让你开开心心地进到棒球赛场,但基于系统原先编写的视觉假设,你也有可能被认为具有暴力犯罪行为,那时可能就不太愉快了”

 

所以用户身处的境地更多是关于哲学意味的。一款滑稽的程序会给照片上的自己加一些逼真的皱纹,这兴许很有意思,但背后收集的数据可能早晚会用来对付人们自己。当然,这些照片可能会受困于某处的俄方供应商,无法触碰,或者作为参考实现一个更加高效准确的FRT系统,用于监督人民。该事件指向了数字世界不安全的核心问题,也促使人们发问:“长期以来我们如此信任的看似无辜的数据,是否会伤害我们自己?”

 

来源:Pexels

现在领悟到什么了吗?

 

下一次有照片过滤器、网上游戏或数字趋势蔓延开来,系好安全带把自己拴紧,考虑一下要不要跻身潮流。

 

哪怕觉得自己的自拍会以数字或文字形式隐匿于某西伯利亚的服务器,也要想着会有人利用它。

 

就像国内ZAO的横空出世,地下灰色产业逐渐浮出水面一般,在掀起病毒式恐慌之前,人们永远不会意识到问题有多严重。。

 

没有危机意识的你,也许只有在看毛片黄图时,意外发现自己的脸后,才会感到恐慌和危险。

推荐阅读专题

留言 点赞 发个朋友圈

我们一起分享AI学习与发展的干货

编译组:孙梦琪、董昱璨

相关链接:

https://hackernoon.com/face-recognition-tech-with-all-the-press-what-are-the-real-risks-fnr32qy

如需转载,请后台留言,遵守转载规范

推荐文章阅读

ACL2018论文集50篇解读

EMNLP2017论文集28篇论文解读

2018年AI三大顶会中国学术成果全链接

ACL2017 论文集:34篇解读干货全在这里

10篇AAAI2017经典论文回顾

长按识别二维码可添加关注

读芯君爱你

发布了695 篇原创文章 · 获赞 2354 · 访问量 30万+

Guess you like

Origin blog.csdn.net/duxinshuxiaobian/article/details/103942624