不只性别、种族歧视,AI可能还会“嫌贫爱富”

  • 时间:
  • 浏览:2
  • 来源:1.5分赛车平台-10分赛车投注平台_1分6合娱乐平台
 黄琨 • 2019-06-12 22:49:39 来源:前瞻网 E6719G0

长期以来,对AI偏见的担忧时不时 是业内重点讨论句子题。以前这方面讨论多集中在性别歧视、种族歧视什么的问题上,如今又有研究发现,包括谷歌、微软和亚马逊等科技巨头推广的物体识别算法,都居于对来自低收入国家的物品时识别表现更差的什么的问题。

这是Facebook AI实验室进行的一项新研究的结果,该研究表明,AI偏见不仅会重现国家内内外部的不平等,都要重现国家之间的不平等。

在这项研究中,研究人员测试了5种流行的现成物品识别算法——微软Azure、Clarifai、谷歌Cloud Vision、亚马逊reko和IBM Watson——以了解每个线程池池识别全球数据集中各种家庭物品的能力。

数据集包括117个类别(从鞋子到肥皂再到沙发),并以不同的家庭收入和地理位置(累似 月收入27美元的布隆迪家庭和月收入1090美元的乌克兰家庭)作了区分。

研究人员发现,与月收入超过360 0美元的家庭相比,在识别月收入60 美元的家庭物品时,算法出错的几率一下子高出了10%左右。而在准确性上的绝对差异甚至更大:与索马里和布基纳法索家庭的物品相比,那些算法在识别来自美国的物品方面要高出15-20%。

研究作者表示,亲戚亲戚让让我门 在“一系列商用云服务的图像识别算法中得出了一致结论”。

你是什么偏见有本来潜在因为,最常见的解释是,用于创建算法的培训数据往往反映了相关工程师的生活和背景。而将会那些人通常是来自高收入国家的白人男性,亲戚亲戚让让我门 教授的课程所要识别的世界也是没人 。

研究作者分析,有几条将会的因为因为了你是什么什么的问题:第一,用于创建系统的训练数据受地理限制,第二,算法一种无法识别文化差异。他表示,视觉算法的训练数据主要来自欧洲和北美,而“在人口众多的地理区域,不得劲是非洲、印度、中国和东南亚,对视觉场景的采样严重欠缺”。

人工智能偏见最著名的例子之一是面部识别算法,你是什么算法在识别女人女人男人面孔时,通常表现得更差,尤其是有色人种女人女人男人。你是什么偏见会渗透到各种各样的系统中,从计算假释的算法,到即将到来的面试前评估简历的算法。

还一种生活清况 是,大多数图像数据集使用英语名词作标记,并收集相应的数据。然而,某样居于于某个地区的东西,在别的地方将会并非居于,都要将会出現同样名字对应在不同国家对应不同事物的清况 。比如说“dish soap”你是什么英语单词,直译为洗碗皂,在许多国家指的是一种肥皂,但在某许多国家,“洗碗皂”却是一种二氧化碳气体容器。

这项研究结果说明那些?首先,这因为任何使用那些算法创建的系统对于低收入和非西方国家的人来说都要表现得更差。将会美国科技公司在AI领域居于世界领先地位,这将会会影响到从照片存储服务和图像搜索功能,到动安全摄像头和自动驾驶汽车等系统的方方面面。

这还将会本来 冰山一角。行业对视觉算法的偏见将会有了警惕,但创建那些线程池池的渠道同样也在为整个行业提供算法,而许多不受重视的算法将会永远不必受到怀疑。

总而言之,硅谷时不时 把当时人的产品——尤其是近年来的AI产品——宣传为人人平等、人人可得。但累似 的研究表明,科技公司继续按照当时人的形象评估、定义和塑造世界。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者当时人观点,本站只提供参考并非构成任何投资及应用建议。(若居于内容、版权或其它什么的问题,请联系:service@qianzhan.com) 品牌商务商务合作与广告投放请联系:0755-360 60 62 或 hezuo@qianzhan.com