资讯公告
研究发现许多面部识别工具传达种族偏见
发布时间:2019-12-25 发布者:域风网

美国国家标准技术研究院周四发布的一项研究显示,与白种人相比,许多面部识别系统在识别非洲裔美国人,亚洲人和本地人群体方面要困难得多。研究称,在确定照片是否与数据库中同一个人的另一幅图像匹配时,这些人群中的假阳性率更高。这被称为一对一匹配,通常用于解锁电话或检查护照等任务。


该研究调查了来自99个开发人员的189种软件算法。公司包括微软,英特尔和松下。据《华盛顿邮报》报道,NIST称亚马逊没有提交其测试算法。亚马逊的Rekognition软件因表现出性别和种族偏见而受到批评。这家电子商务巨头没有立即回应置评请求。


根据NIST的数据,女性中的误报率高于男性,这一发现在算法和数据集之间是一致的。老年人和儿童中也有更多的误报。 


NIST计算机科学家,该报告的主要作者帕特里克·格罗瑟(Patrick Grother)在一份研究报告中表示:“虽然通常无法正确地在算法中做出陈述,但我们发现,我们研究的大多数面部识别算法中都存在人口统计学差异的经验证据。”声明。“尽管我们不探讨可能导致这些差异的原因,但这些数据对于决策者,开发人员和最终用户在考虑这些算法的局限性和适当使用方式时将是有价值的。”


第二项任务称为一对多匹配,涉及确定图像中的某人在数据库中是否有任何匹配项。这可以用来识别感兴趣的人。该研究发现,通过一对多匹配,非洲裔美国女性的假阳性率更高。NIST说,这是一个重要的问题,因为它可能导致错误的指控。


“在一对一搜索中,误报可能只是一种不便-您无法进入手机,但通常可以通过第二次尝试来解决该问题,”格劳瑟在新闻稿中说。“但是,在一对多搜索中如果出现误报,将不正确的匹配项放在需要进一步审查的候选人名单上。”


不过,该研究指出,“并非所有算法在一对多匹配中都会给跨人口统计学的假阳性率很高”。最终,“不同的算法执行结果有所不同”。 


NIST说,尽管先前的一些研究都研究了一对一匹配的人口统计学影响,但到目前为止,还没有人探索过一对多匹配的人口统计学影响。 


为了进行这项研究,NIST使用了四个图像集,其中包含849万人口的1827万张照片。它们是从国务院,国土安全部和联邦调查局提供的数据库中提取的。 

购物车
业务咨询:
售后服务: