然而在现实中,人工智能技能却不像电影里那么没有「人性」,不过这可不是什么好事,由于 AI 的「歧视」和「偏见」正在成为越来越多人研究的课题,而且它们确实存在。

人工智能也有歧视和偏见_人工智能_成见 云服务

我们先来看几个例子:

COMPAS 是一种在美国广泛利用的算法,通过预测罪犯再次犯罪的可能性来辅导判刑,而这个算法或许是最臭名昭著的人工智能偏见。
根据美国***机构 ProPublica 在 2016 年 5 月的宣布,COMPAS 算法存在明显的「偏见」。
根据剖析, 该系统预测的黑人被告再次犯罪的风险要远远高于白人,乃至达到了后者的两倍。

▲ 图片来自:Medium

可能你在直觉中也会认识黑人的再犯率会高于白人,但这并反面实际情形符合。
在算法看来,黑人的预测风险要高于实际风险,比如两年内没有再犯的黑人被缺点的归类为高风险的几率是白人的两倍(45% 对 23%)。

而未来两年内再次犯罪的白人被缺点认为是低风险的概率同样是黑人再犯将近两倍(48% 对 28%)。

人工智能的偏见,早已深入了各个领域。

在 AI 技能运用领域,面部识别也是一项广泛利用的运用类型,并且这会成为种族和性别偏见的另一个潜在来源。
2018 年 2 月份麻省理工学院的 Joy Buolamwini 创造,IBM、微软和中国公司 Megvii 的三个最新的性别识别 AI 可以在 99% 的情形下准确从照片中识别一个人的性别,但这仅限于白人。
对付女性黑人来说,这个准确率会降至 35%。

▲ 图片来自:FPT University

一个最可能的阐明是,AI 的「偏见」取决于背后演习算法演习的数据,如果用于演习的数据里白人男性比黑人女性更多,那显然白人男性的识别率就会更高。
IBM 后来宣告他们已经采取了新的数据集并重新演习,微软也表示会采纳方法提高准确性。

另一个研究是 Facebook 的人工智能实验室的研究成果,他们创造人工智能的偏见不止存在于国家内部,在不同国家之间也是存在的。

比如当被哀求识别来自低收入国家的物品时,Google、微软和亚马逊这些人工智能领域大佬的物体识别算法会表现更差。

研究职员对五种盛行的物体识别算法进行了测试,包括 Microsoft Azure,Clarifai、Google Cloud Vision、Amazon Rekogition 和 IBM Watson。

测试的数据集包含了 117 个种别,从鞋子到肥皂到沙发以及更是各样的物品,这些来自于不同的家庭和地理位置。
跨域了从布隆迪(非洲中东部的一个小国家)一个 27 美元月收入的贫穷家庭,到来自乌克兰月收入达到 10090 美元的富余家庭。

研究职员创造,与月收入超过 3500 美元的家庭比较,当被哀求识别月收入 50 美元的家庭时,物体识别算法的偏差率大约会增加 10%,在准确性的绝对差异上乃至会更大。
与索马里和布基纳法索比较,算法识别来自美国产品是准确率要提升 15-20% 旁边。

▲ 图片来自:Startup Thailand

这便是问题所在。
目前的人工智能背后须要即为大量的数据去演习,只管人工智能本身不知道「歧视」和「偏见」是什么意思,但背后数据的研究职员却会带有这样的思想,以至于在演习数据的选择上就会产生倾向性。

常日情形下,在创建 AI 算法的过程中会有许多工程师参与,而这些工程师常日来自高收入国家的白人家庭,他们的认知也是基于此阶级,他们教导 AI 认识天下也是如此。

当然这并不是全部缘故原由,在 2015 年的一项研究中显示,利用 Google 搜索「CEO」的图片,个中只有 11% 的人是女性。
我知道男性 CEO 的确比女性 CEO 比例要多很多,但实际上美国有 27% 的 CEO 是女性。
而匹兹堡卡内基梅隆大学的 Anupam Datta 领导的另一项研究创造,Google 的在线广告系统展示的男性高收入事情也比女性多很多。

Google 对此的阐明是,广告客户可以制订他们的广告只向某些用户或网站展示,Google 也确实许可客户根据用户性别定位他们的广告。

另一大巨子亚马逊也曾碰着过 AI 歧视的问题。
2014 年的时候亚马逊在爱丁堡成立了一个工程团队以寻求一种自动化的招聘办法。
他们创建了 500 种打算机模型,通过对过去的入职员工简历进行搜索,然后得出大约 50000 个关键词。

「当时他们在这个算法上寄予了很大期望,喂给它 100 份简历,然后它会自动吐出前五名,OK,我们就雇佣这些人。
」当时一位人士是这样见告的路透社。

▲ 图片来自:Machine Learning Techub

然而一年后,工程师们有一些不安的创造——它不喜好女性。
显然这是由于人工智能所获取过去十年的数据险些都是男性的,因此它得出了「男性更可靠」的不雅观点,并降落了简历里包含女性字样简历的权重。

性别偏见还不是这套算法唯一的问题,它还吐出了不合格的求职者。
2017 年,亚马逊放弃了该项目。

只管人工智能的「偏见」已经成为一个普遍的问题,但故意思的是,人类又试图利用人工智能技能去纠正人类本身的偏见问题。

日前旧金山宣告推出一种「偏见缓解工具」,该工具利用人工智能技能自动编辑警方报告中的嫌疑人种族等信息。
它的目的是在决定某人被指控犯罪时,让审查官不受种族偏见的影响。
目前该工具已经准备就绪,估量在 7 月 1 日正式履行。

▲ 图片来自:Seattletimes

根据旧金山地区审查官办公室的说法, 这个工具不仅会删除关于种族的描述,同时还会进一步删除关于眼睛颜色和头发颜色等可能故意无意对审查官造成暗示的信息,乃至地点和社区名称也将会被删除。

它会运作良好并产生实际的效果吗,目前还不得而知。

某种意义上说,目前人工智能的「歧视」与「偏见」是人类意识以及阶级地位的投射。
白人精英工程师研究出的人工智能更像「白人的人工智能」和「精英的人工智能」,同理也可以想象,如果是黑人和黄种人主导的人工智能,同样也会对本群体比较有利。

▲ 图片来自:Dudu Mimran

而通过人工智能对人类本身的偏见行为进行纠错则是一项更故意思的考试测验,如果该方法确实能缓解人类的偏见,那人类和人工智能可能会在该问题上相互收益,空想情形下能打造一个正向循环。

神话故事里上帝摧毁了巴别塔使得人类不再措辞文化互通,而人工智能这一改变未来的宏伟技能同样像是一座通天高塔,如果要把它建玉成人类的福祉,肃清不同文化造成彼此偏见是一定要办理的问题。

题图来源:Financial Times