人工智能可以根据长相判断你是不是罪犯?

  导语:记得小时候看《不要和陌生人说话》,有一个情节是让现场目击者对犯罪分子进行指认,目击者半天也没有辨别出来,从而让犯罪分子逍遥法外。如今,人工智能将能对这一现状进行改变,通过对人的相貌、表情甚至眼神对犯罪分子进行辨认。但这一技术的同时也带来很多质疑,主要是在准确性上,你怎么看?



  有个成语叫做“贼眉鼠目”,形容那些看起来就不像好人的面相,这一论证在人工智能领域得到了验证。


  中国科学家做了一项研究,利用人工智能判断人的长相与犯罪的联系。通过采集18-55岁的中国公民的面部特征,并对数据进行分析,人工智能得到了一组关于罪犯特征的结论:


  那些嘴巴很小、嘴唇微微上翻、两眼之间距离比较近的人,他们是罪犯的可能性要远远高于其他特征的人。


  但是,这项技术得到了一些反对者的强烈抨击与指责,因为他们认为,这项技术只是一项最基础的研究,而且这项研究是带有偏见色彩的,如果把这项技术应用到现实世界中,来进行罪犯的认证的话将是一件十分荒谬的事情,因为这项技术非常有可能错误的识别罪犯,让好人蒙冤,让真正的罪犯逍遥法外。



  俗话说:“人不可貌相,海水不可斗量”,仅仅凭借一个人的长相,就给他扣上罪犯或者骗子的帽子,未免太荒谬了,但是目前的一项人工智能技术却正在做这件荒谬的事情。


  该论文已发布到国外网站,文章的主要内容就是调查能否基于最新的人工智能技术,通过对于人类面的部特征进行识别、分析,来判断一个人到底是不是罪犯。


  虽然研究还处在实验室阶段并没有得到广泛的应用,但是,不管结果怎样,这对于那些具有小小的嘴巴、微微上翻的嘴唇和比较靠近的眼睛这些面部特征的人来说,都不是一个好消息,因为一旦一个人具备了这样的面部特征,以后就很有可能被人认为是罪犯或者骗子。


  上海交通大学的研究人员吴小林和张希对这项人工智能技术进行了广泛深入的研究和讨论。他们将自己的研究成果发表在《arXiv》上,但是他们的这篇研究论文还没有被正式审批或者正式发表,只是在网上可以找到资源,属于优先发表的文章。


  吴小林和张希根据他们前期的研究指出,判断一个人是不是罪犯主要可以根据三个基本的面部特征来进行判断。


  这三个特征包括:嘴唇的弯曲程度;两只眼睛之间距离的大小;鼻尖和嘴角之间角度的大小(可以认为是嘴巴的大小)。


  与此同时,根据计算机复杂的计算可以得出结论:那些具有嘴巴比较小,眼间距比较小,嘴唇微微向上弯曲的面部特征的人,更有可能是一个罪犯或者骗子。


  研究人员还在文章中写到:“不像人类的检察官或者法官,人工智能计算机的视觉算法或者分类的标准往往不具备任何主观的因素,一切评判的依据都是根据所收集到的数据,因为计算机在做出判断时,不会拥有主观的情绪,也不会根据自己过去的经历甚至是种族、宗教、政治、观念、性别、年龄等等的不同产生任何偏见,更加不会因为自己晚上睡眠不好或者用餐不快而产生的负面情绪影响自己的判断。所以,相对于人类的检察官或者法官而言,人工智能计算机更具有客观性和可靠性。”



  这项研究采集了1856个年龄在18-55岁之间的中国公民的照片,并且对这些所采集的公民照片刻意的进行了选择来保持样本的可靠性,因为这1856个被采集的中国公民中拥有了不同的种族、不同的性别、不同的年龄甚至是不同的面部表情,这样就可以增加样本的可靠性。


  在这被采集的1856个中国公民中,有730个是罪犯,当然,为了确保数据的准确性,这730个罪犯不包括犯罪嫌疑人,只包括那些已经被确定为罪犯的公民。


  这些被采集的中国公民的照片全部被输入到计算机中进行统计,计算机通过4种算法分别对这些照片里的公民面的部特征进行准确的分析,根据分析得到的结果来推断出罪犯的共同面部特征。


  研究者们还在文章中写到:“尽管在这项科研课题设立之初就充满了历史的争议性,但是,计算机的4种算法都运行的非常良好,并且为推断罪犯提供了非常有效的证据。”


  研究人员表示:“尽管目前,我们已经得到了非常有效的证据来对罪犯进行推断,例如较小的嘴巴,微微向上弯曲的嘴唇,较近的眼间距等等,但是,并不是所有的人都相信和支持这项研究,事实上,大多数的人都对我们的研究都持怀疑和强烈反对的态度。”


  一位网友表示:“这项技术的公布令我感到非常的震惊,这项研究的结果是骇人听闻的,我觉得,这些研究是非常不科学的,这应该成为科学界的一个反例,大学教授们应该在课堂上积极的告诫学生不要这样做。”



  还有一些用户表示:“这样的将研究是不具备科学依据的,因为,罪犯轻微的微笑,就会对照片上嘴巴的大小,嘴唇的形状产生影响,而这些影响,很有可能是罪犯在拍摄照片的时候,摄影师的拍摄角度或性惯性的要求所产生的,而那些所谓的罪犯共性的面部特征很有可能是因为同一警察部门,采用同一摄影师或者采集的照片来自同一组拍摄所造成的,并不具有非常好的相关性。所以,研究结果自然不具备科学依据和可靠性。”


  现在,针对这项人工智能技术存在的最大的担忧就是,计算机很有可能在现实世界的法庭上,根据自身的所谓的“证据”指证一个无辜的人成为罪犯。这些人工智能技术很有可能做出一些错误的判断,因为它很有可能指认一个没有犯罪的人成为罪犯,同时,也很有可能指认一个罪犯无罪,从而被释放。


  这已经不是人工智能技术第一次被公众大肆批评和指责的案例了。


  在今年的九月份一项叫做Beauty.AI的选美大赛上,人工智能计算机对来自全世界年龄在18-69岁的自拍照片进行了收集,并对这些照片进行了评判。当结果公布时,似乎出现了一些意外,因为机器人根本“不喜欢”皮肤黑的人,所以,所有黑皮肤的照片都被筛掉,机器人对于黑皮肤的人存在着一些偏见,而引起了社会的广泛不满。


  尽管大多数的参赛者都是白皮肤的人,但是,大部分的印度和非洲的黑皮肤的人,他们也都提交了照片,而这些照片全部被筛掉了。可能因为大多数参赛者都是白人的原因,所以人工智能算法也就默认了白皮肤的人比较好看,才导致了黑人照片被筛掉的情况。


  Beauty.AI选美大赛的首席科学官Alex Zhavoronkov说:“如果在你采集的数据库中,没有足够多的不同肤色的数据,那么人工智能计算机机器人就会产生有偏见的结果。”


  所以,如果想要利用一个算法对一组数据进行识别时,如果某种类型的数据不够多,就有可能会产生一个有偏见的结果。


精彩推荐