全球99名开发人员提交的189种人脸识别算法识别白人面孔

【明镝】

互联网、大数据和人工智能等数字技术在提高人类福祉的同时,也可能对人权产生负面影响,并可能对在种族、性别、年龄等等。。美国拥有世界上最先进的数字技术,但不仅没有给它带来解决种族问题的机会,反而进一步复制、强化甚至加剧了其系统性和结构性的种族歧视。

基于种族的数字鸿沟和技术壁垒

图片[1]-全球99名开发人员提交的189种人脸识别算法识别白人面孔-唐朝资源网

尽管美国主导着全球数字经济,但少数族裔从新兴数字技术中受益的机会却非常低。根据联邦通信委员会的数据,2016 年,大约 41% 生活在部落中的美洲原住民无法使用互联网服务进行视频会议等活动。根据 2019 年皮尤研究中心的一项调查,非裔美国人和西班牙裔美国人在美国拥有电脑或高速互联网的人数仍然不足。大约 82% 的白人表示他们拥有台式机或笔记本电脑,但只有 58% 和 57% 的非裔美国人和西班牙裔美国人拥有电脑。宽带使用方面也存在巨大的种族差异,白人在家中拥有宽带连接的可能性比非裔美国人和西班牙裔高 13% 到 18%。

广泛使用的面部识别技术本身也隐含着种族主义,许多能够成功识别白人面孔的算法都无法正确识别有色人种。2019 年,美国国家标准与技术研究院发布了一份报告,显示了全球 99 位开发人员提交的 189 种人脸识别算法在识别不同人群的人脸方面的表现。测试表明,非洲或亚洲面孔的照片被错误识别的可能性是白人的 10 到 100 倍。在数据库中搜索给定面孔时,非裔美国女性的错误率明显高于其他人群。

社交媒体传播仇恨言论和种族主义

图片[2]-全球99名开发人员提交的189种人脸识别算法识别白人面孔-唐朝资源网

新兴数字技术为种族主义、仇恨言论和煽动歧视性暴力的快速和大规模传播提供了渠道,其中社交媒体平台发挥着关键作用。自 2014 年以来,美国的仇恨团体数量增加了 30%,仅在 2018 年就增加了 7%。根据南方贫困法律中心 2019 年的统计,美国发现了 1,020 个仇恨团体。根据美国反诽谤联盟的监测报告,2018 年美国白人至上主义宣传事件数量为 1187 起,比 2017 年的 421 起增加了 182%。仇恨团体在全球范围内恐吓和杀害少数族裔。以“种族纯洁”和种族优越为名,包括2018年在美国匹兹堡发生的反犹袭击事件。2018年,新纳粹和其他白人至上主义极端组织在加拿大和美国造成至少 40 人死亡。这些种族仇恨团体经常使用社交媒体平台寻找志同道合的人,互相支持,并传播他们的极端主义思想。此外,仇恨团体越来越多地渗透到“游戏”世界。电子游戏和游戏相关的论坛、聊天室和直播网站已成为新纳粹招募的最主流场所。

算法系统重复并强化种族偏见

首先,算法系统可能会加剧工作权方面的种族歧视。联合国特别报告员在 2020 年的报告中指出,美国招聘中使用的一些算法因具有歧视性而受到批评。此类算法系统根据现有“成功”员工的数据库(包括性别、种族或宗教)来识别候选人。因此,算法系统做出的决策反映了现有的就业不平等,重复和强化了基于种族、性别等的偏见。

图片[3]-全球99名开发人员提交的189种人脸识别算法识别白人面孔-唐朝资源网

其次,新兴数字技术也对少数群体的健康权产生歧视性影响。发表在《科学》杂志上的一项研究发现,美国医疗保健系统系统地歧视非裔美国患者,他们使用商业算法来指导超过 2 亿人的医疗保健决策。由于输入数据中没有“种族”选项,开发人员认为该算法是“种族不可知论者”,但该算法始终给予非裔美国患者较低的风险评分,未能识别出与白人患病率相当的患者。近一半的非裔美国患者与白人患者一样可能有复杂的医疗需求,这使他们无法参与改善健康的干预措施。

最后,定向广告中的种族歧视侵犯了少数族裔的住房权。Facebook 是控制美国数字广告市场份额 22% 的社交媒体网站,它曾经允许广告商通过在其广告定位工具的“人口统计”类别下排除具有某些“种族背景”的用户来“缩小受众范围”。这种有针对性的广告可用于阻止黑人、亚洲人或西班牙裔人观看特定的住房广告。这种“仅限白人”的广告让人想起种族隔离合法化的吉姆克劳时代,当时报纸为广告商提供了只向白人读者投放广告的选项。

预测性警务技术导致严重的种族歧视

图片[4]-全球99名开发人员提交的189种人脸识别算法识别白人面孔-唐朝资源网

2016 年 8 月 31 日,由 17 个组织组成的联盟就美国执法部门使用预测性警务工具发表声明,指出该技术缺乏透明度、种族偏见和其他导致不公正的严重缺陷。预测性警务是指通过评估人们的数据来预测参与犯罪活动的可能性,例如他们的年龄、性别、婚姻状况、药物滥用历史和犯罪记录。

洛杉矶警察局率先使用由预测性警务技术公司开发的算法工具,纽约和芝加哥警察局随后根据人口统计数据和社交媒体详细信息创建了一个犯有枪支犯罪的“战略对象”的“热门名单”。预测性警务工具的工作方式缺乏透明度,警察部门通常不愿透露算法的工作方式。这使得这些算法成为无法被任何外部方审计或评估的“黑匣子”。到 2019 年,该系统已为超过 400,000 人分配了“高风险”评分,并被视为预防暴力犯罪的主要手段。根据 2020 年美国司法部的数据,预测性警务工具会产生严重的歧视性犯罪预测错误,非裔美国人在无正当理由的情况下被警察拦截的可能性是白人的 5 倍,被逮捕的可能性是白人的两倍。美国的预测性警务工具使用种族作为预测因素,通过将警察派往他们以前监管的地方来复制和加剧警务中的偏见,从而增加了对非白人社区的过度监管。现有的数据集反映了现有的种族偏见,因此虽然这些技术被认为是“客观的”,甚至被认为有可能减轻它们所取代的人类行为者的偏见,但它们的操作反而加剧了种族歧视。警察部门倾向于在以少数民族居民为主的贫困社区使用更多的预测技术。预测性警务造成了“巨大的结构性偏见”

数字技术增加了刑事司法系统中的种族歧视

图片[5]-全球99名开发人员提交的189种人脸识别算法识别白人面孔-唐朝资源网

新兴的数字技术延续并复制了刑事司法中的种族歧视结构。从预测性警务到预测累犯,执法机构和法院正在依靠算法工具来延续长期存在的种族歧视,削弱整个少数群体的人权,并加强他们在社会中遭受的结构性压迫。美国的几个州在刑事司法程序的每一步都使用人工智能风险评估工具。开发人员希望这些系统能够提供客观、基于数据的司法结果,但这些算法通常依赖于在有缺陷、种族偏见甚至非法政策期间产生的数据。由于这些算法会影响量刑,因此它们侵犯了少数人获得公平审判和免于任意逮捕和拘留的权利。此类风险评估中权衡的因素通常包括先前的逮捕和定罪记录、父母的犯罪记录、邮政编码和所谓的“社区混乱”。这些因素反映了更广泛的社会经济劣势模式,这是由于有色人种和种族系统社区的过度监管和执法行为,而不是目标人群的行为。换句话说,这些数据比他们的个人行为更能预测被告社区中的种族劣势和警察分布。与白人相比,非裔美国人被告被确定为具有更高未来暴力犯罪风险的可能性高出 45%,被预测在未来可能犯下任何类型犯罪的可能性高出 45%。父母的犯罪记录、邮政编码和所谓的“社区混乱”。这些因素反映了更广泛的社会经济劣势模式,这是由于有色人种和种族系统社区的过度监管和执法行为,而不是目标人群的行为。换句话说,这些数据比他们的个人行为更能预测被告社区中的种族劣势和警察分布。与白人相比,非裔美国人被告被确定为具有更高未来暴力犯罪风险的可能性高出 45%,被预测在未来可能犯下任何类型犯罪的可能性高出 45%。父母的犯罪记录、邮政编码和所谓的“社区混乱”。这些因素反映了更广泛的社会经济劣势模式,这是由于有色人种和种族系统社区的过度监管和执法行为,而不是目标人群的行为。换句话说,这些数据比他们的个人行为更能预测被告社区中的种族劣势和警察分布。与白人相比,非裔美国人被告被确定为具有更高未来暴力犯罪风险的可能性高出 45%,被预测在未来可能犯下任何类型犯罪的可能性高出 45%。这些因素反映了更广泛的社会经济劣势模式,这是由于有色人种和种族系统社区的过度监管和执法行为,而不是目标人群的行为。换句话说,这些数据比他们的个人行为更能预测被告社区中的种族劣势和警察分布。与白人相比,非裔美国人被告被确定为具有更高未来暴力犯罪风险的可能性高出 45%,被预测在未来可能犯下任何类型犯罪的可能性高出 45%。这些因素反映了更广泛的社会经济劣势模式,这是由于有色人种和种族系统社区的过度监管和执法行为,而不是目标人群的行为。换句话说,这些数据比他们的个人行为更能预测被告社区中的种族劣势和警察分布。与白人相比,非裔美国人被告被确定为未来暴力犯罪风险更高的可能性高出 77%,并且被预测在未来可能犯下任何类型犯罪的可能性高出 45%。s 社区而不是他们的个人行为。与白人相比,非裔美国人被告被确定为具有更高未来暴力犯罪风险的可能性高出 45%,被预测在未来可能犯下任何类型犯罪的可能性高出 45%。s 社区而不是他们的个人行为。与白人相比,非裔美国人被告被确定为具有更高未来暴力犯罪风险的可能性高出 45%,被预测在未来可能犯下任何类型犯罪的可能性高出 45%。

预测累犯的工具也是如此。在美国的系统中,嫌疑人被捕时通常会得到一个分数,这是为了预测他们未来犯罪的可能性。最常用的系统 COMPAS 提供的风险评估分数用于刑事司法程序的每个阶段。一项调查显示,该系统存在明显的种族偏见,将非裔美国被告错误地贴上潜在罪犯的标签,几乎是白人被告的两倍。与此同时,白人被告经常被误认为风险较低。由于这些评分标准固有的偏见,犯罪嫌疑人即使在无辜的情况下也认罪并不少见。

纽约城市大学教授杰西·丹尼斯指出,数字技术的语言是美式英语,而网络技术充满了美国式的规范,赋予了美国科技产业不成比例的经济和政治权力,并在全球各类跨国公司影响力很大,往​​往体现出美帝国主义和白人至上主义的意识形态。在“技术背后的种族:新吉姆密码的废奴主义工具”中,普林斯顿大学教授鲁哈·本杰明认为,算法黑匣子将所谓的种族中立技术与法律和政策联系起来,作为白人至上主义的有力工具。美国应该正视自己在种族歧视方面的系统性和结构性缺陷,

© 版权声明
THE END
喜欢就支持一下吧
点赞32赞赏 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容