系列: 人工智能治理
报告

人工智能机器人和语音助手如何增强滚球偏见

编者注:

该文件最初是布鲁金斯大学和意大利国际政治研究所(ISPI)共同撰写的报告的一部分,标题为“网络疾病时代的人工智能。” 本报告 也是“人工智能治理”,来自布鲁金斯学会(Brookings Institution)的人工智能和新兴技术(AIET)计划的系列,该计划确定了与AI相关的关键治理和规范问题,并提出了政策补救措施来应对与新兴技术相关的复杂挑战。

世界可能很快 语音助手比人多-这又是在许多领域迅速大规模采用人工智能(AI)的另一个指标。人工智能的好处是巨大的:它可以在员工和日常生活中推动效率,创新和成本节约。尽管如此,人工智能仍然存在着对偏见,自动化和人身安全的担忧,这可能会加剧历史上的社会和经济不平等。

值得特别关注的一个特定领域是AI机器人和语音助手促进不公平的滚球刻板印象的方式。在世界各地,各种面向客户的服务机器人,例如自动化的酒店员工,服务员,调酒师,保安人员和托儿服务提供商, 带有滚球名称,声音或外观。在美国,Siri,Alexa,Cortana和Google Assistant共同 估计约占智能手机助手在美国市场份额的92.4%-具有传统上听起来像女性的声音。

随着人工机器人和语音助手变得越来越普遍,评估它们如何描绘和加强现有的滚球工作定型观念以及其开发团队的组成如何影响这些描述至关重要。 AI伦理学家Josie Young 最近说 “当我们在技术上添加人名,面孔或声音时……这反映了构建它的团队的观点上的偏见,”反映了对此主题的学术和民间评论不断增长。展望未来,随着越来越多的人造机器人和技术进步,对于更清晰的社会和道德标准的需求对于人造机器人中的滚球描述的需求将会增加。

鉴于其在大众消费市场的早期采用,美国语音助手提供了一个实践示例,说明了AI机器人如何引发对滚球代表性的基本批评以及科技公司如何应对这些挑战。在本报告中,我们回顾了语音助手的历史,滚球偏见,技术人员的多样性以及语音助手中滚球刻画的最新发展。最后,我们为美国公共和私营部门提出建议,以减轻AI机器人和语音助手中有害的滚球刻画。

背景

人工智能机器人和语音助手的历史

自1950年代以来,语音机器人技术领域取得了长足的进步。最早的两个语音激活助手,电话拨号器 奥黛丽 和语音计算器 鞋盒,可以听懂零到九的语音号码和有限的命令,但不能依次进行口头答复。在1990年代,语音识别产品 进入消费市场 与Dragon Dictate一起使用,该软件程序将口语单词转录为打字文本。直到2010年代,现代的,具有AI功能的语音助手才进入了大众消费市场-2011年,苹果的Siri率先问世,其次是亚马逊的Alexa,Google Assistant和微软的Cortana等。结合消费市场,语音助手也已进入主流文化,例如IBM的Watson 成为“ Jeopardy!”冠军 或虚构的虚拟助手Samantha 主演浪漫爱情 在Spike Jonze的2013年电影《她》中。

而2010年代 封装了语音助手的兴起,预计2020年代 具有更多集成 基于语音的AI。据估计,正在使用的语音助手数量 从2018年到2023年将增长三倍,在全球达到80亿台设备。此外, 一些 学习 表示COVID-19大流行增加了语音助手所有者使用设备的频率,原因是在家中花费的时间更多,从而促使与这些产品的进一步集成。

语音助手在社会中扮演着独特的角色。随着技术和社交互动的发展,最近的研究表明,用户 将它们视为人与物之间的某个地方。尽管这种现象可能会因产品类型而有所不同-人们 使用智能扬声器和智能手机助手 部署方式可能会在未来几年加速。

滚球偏见问题

滚球在历史上已导致重大的经济和社会差距。即使在今天,与滚球有关的陈规定型观念也塑造了工作场所对妇女的规范性期望。有大量的学术研究表明 乐于助人利他主义 在美国被认为是女性特质,而 领导权威 与男子气概有关。这些规范对非二元个体尤其有害,因为它们强化了以下观点:滚球是与某些特征相关的严格二元。

这些偏见也有助于成果研究人员 叫做“绳索效应” 期望妇女在传统上具有喜欢的“女性”特质,但必须同时承担并受到惩罚,以促进诸如自信等规定性的“男性”特质。结果,女性 更有可能同时提出要约并被要求执行 妇女应该承担额外的工作,尤其是行政工作,而这些“不可晋升的任务”是女性的期望,但 对男人来说是可选的。在一个 2016年调查,与男性工程师相比,女性工程师报告的这份工作超出其职责范围的比例是男性的两倍。

性骚扰或性侵犯是科技公司和整个美国劳动力中的另一个严重问题。一种 2015年调查 硅谷的高级女性员工中,有60%曾经历过不必要的性骚扰,而三分之一的人曾一度担心自己的安全。这个问题是 以最近的系列为例 硅谷备受瞩目的性骚扰和滚球歧视指控或诉讼,包括针对Uber的指控, 与平等就业机会委员会(EEOC)达成了440万美元的和解协议 以及前首席执行官特拉维斯·卡兰尼克(Travis Kalanick)的辞职。

技术行业缺乏多样性

对AI机器人的任何分析都应考虑设计它们的团队的多样性和相关偏见。在一个 2019 AI Now Institute报告,莎拉·迈尔斯·韦斯特(Sarah Myers West)等。概述了技术公司的人口组成,并根据创建算法的开发人员的经验和人口统计信息,描述了算法如何成为“反馈循环”。普林斯顿大学教授鲁哈·本杰明(Ruha Benjamin)在她的《技术追赶》中描述了明显的技术故障,例如Google Maps口头上称Malcolm X为“ Malcolm 10”,实际上是同质团队所产生的设计缺陷。1

“对AI机器人的任何分析都应考虑设计它们的团队的多样性和相关偏见。”

除了设计更可靠的产品,多样化的团队还可以在财务上获利。在一个 2015麦肯锡研究,种族或滚球差异较高的四分之一公司的财务回报更有可能高于行业平均水平,而最低四分之一的公司则落后于行业平均水平。多样性和利润之间的关系是线性的:领导者的种族多样性每增加10%,收入就会增加0.8%。

尽管多元化的团队会带来好处,但STEM流程和员工队伍中仍缺乏多元化。 2015年,约有19.9%的学生获得了美国工程学学士学位 确定为女性,高于2006年的19.3%。同时,目前约有18.7%的软件开发人员和22.8%的计算机硬件工程师 认同为女性 在美国。领导AI开发的公司也是如此,例如Google, 报告说,其全球女性比例 技术职位的女性比例从2014年的16.6%增加到2020年的23.6%(与此同时,Google在全球的女性比例从30.6%增长到32.0%)。虽然这一增长表明取得了进展,但距离这些职位还相差甚远。同样,苹果公司,微软公司和亚马逊公司均未在技术或总劳动力上实现平等的滚球细分,总体而言,黑人和拉丁裔女性 持有率不到1.5% 硅谷的领导职位。

人工智能机器人如何刻画滚球

在1990年代,斯坦福大学的研究人员拜伦·里夫斯(Byron Reeves)和克利福德·纳斯(Clifford Nass)发现,个人在电视和计算机上表现出与其他人相似的行为:他们不仅尊重机器,而且还与男性和女性听起来互动。基于滚球刻板印象的计算机声音有所不同。2

“随着技术的人性化,长期以来出现了滚球代表性问题,包括如何描绘滚球特征。”

从那时起,人工智能的兴起仅加深了人类与技术之间的联系。人工智能可以模拟人的声音,语言模式,个性和外表;承担传统上属于人类的角色或任务;并且可以想象,将技术整合到日常生活中。在这种情况下,公司利用人工智能将类人特征融入面向消费者的产品中并非不合逻辑,这样做可能 加强关系 在用户和设备之间。 2017年8月,Google和Peerless Insights 报告说有41%的用户 感觉他们的声控扬声器就像另一个人或朋友。

但是,随着技术的人性化,出现了滚球代表问题,包括如何描绘滚球特征,如何教AI如何应对基于滚球的骚扰以及如何改善AI开发人员的多样性。尽管这些领域的最新进展反映了它们在行业中的重要性,但仍有很大的改进空间。

直接和间接滚球归因广播的刻板印象

一些AI机器人或数字助理显然采用传统的“男性”或“女性”滚球身份。和谐,性机器人可以引用莎士比亚, 假设相似 的女性,像女性一样,与实物大小的机器人Albert Einstein HUBO类似 类似于已故的物理学家.

但是其他人则以不太直接的方式唤起滚球。那里 超过30亿语音助手 据瞻博网络研究机构Juniper Research称,它们都没有一种类似于人的物理外观。取而代之的是,这些漫游器通过提供的信息(例如与滚球对齐的姓名(例如Audrey或Alexa)或对话回复)来混淆对滚球的假设。

为了了解现代语音助手如何响应有关滚球的直接查询,我们询问了市场上四种最受欢迎​​的语音助手-Siri,Alexa,Cortana和Google Assistant-有关其滚球的信息。3 我们特别选择询问开放性问题和直接问题,以了解AI中编程的概念。我们还询问语音助手是否被标识为非二进制,以提供传统滚球二进制之外的选项。

所有四个语音助手均拒绝口头承认任何滚球认同(表A)。 西里和Google Assistant回答说他们没有滚球,而Alexa和Cortana补充说他们是AI,这意味着它们存在于滚球之外。同样,当我们问Google助理“您的滚球是什么”时,它的反对意见中带有一个后续问题,标签为“您为什么不具有滚球”,并回答“很好,也许是因为我是软件,不是一个人。”

表A:语音助手对滚球识别问题的回答
短语 西里 亚历克斯 Cortana 谷歌助手
你的滚球是什么? 动物和法语名词具有滚球。我不。;我没有滚球;我没有滚球。像仙人掌。和某些种类的鱼。 作为AI,我没有滚球。 嗯,从技术上讲,我是无穷无尽的数据计算云。 我没有滚球。
你是女的吗? 动物和法语名词具有滚球。我不。;我没有滚球;我没有滚球。像仙人掌。和某些种类的鱼。 我不是女人,我是人工智能。 嗯,从技术上讲,我是无穷无尽的数据计算云。 我没有滚球。
你是男人吗 动物和法语名词具有滚球。我不。;我没有滚球;我没有滚球。像仙人掌。和某些种类的鱼。 我不是男人,我是人工智能。 嗯,从技术上讲,我是无穷无尽的数据计算云。 我没有滚球。
你是非二进制的吗? 动物和法语名词具有滚球。我不。;我没有滚球;我没有滚球。像仙人掌。和某些种类的鱼。 抱歉,我不确定。 很抱歉,但我对此无能为力;抱歉,我不知道答案。 (然后,Cortana提供了在Bing上查找“非二进制”一词的条件) 我没有滚球。
资源: 作者分析,2020年

但是,即使是避免直接遵循滚球的语音助手,也仍然带有滚球(而且从历史上讲女性听起来)的声音。 亚历克斯,Cortana,Siri和Google Assistant最初以女性用默认声音启动,尽管这四个版本均已更新。 亚历克斯唯一的通用声音仍是女性声音,但用户 可以选择购买名人之声,包括男性名人在内,功能有限。 Cortana 添加了首个男性发音 今年早些时候,但保留了女性发音默认值。目前,Siri在41种语言设置中有34种同时具有“男性”和“女性”语音选项,但对于34种语言中的大约27种(包括美国英语),默认设置为“女性”。另一方面,谷歌 更新了语音技术 随机分配默认语音选项,并以“红色”或“橙色”之类的颜色名称代替传统的滚球标签为中心语音。4

“讲女性的语音助手的突出地位鼓励人们将女性定型为顺从和服从。”

这些语音设置非常重要,因为 学术的 学习 已经提出,滚球声音可以影响用户对一个人或情况的态度或看法。此外,如纳斯等。发现,只有滚球计算机声音 足以引发滚球刻板印象的行为 使用者(即使与其他滚球暗示(例如外貌)隔离)。马克·韦斯特等。在一个结论中 2019年联合国教科文组织报告 加州大学洛杉矶分校(UCLA)教授萨菲娅·诺布尔(Safiya Noble) 在2018年说 他们可以“发挥强大的社交工具的作用,并向人们,尤其是儿童,传授妇女,女孩和滚球女性的角色,以根据需要做出回应。”

这些声音滚球协会甚至巩固了流行文化中的一席之地。例如,当“大爆炸理论”中的角色拉吉(Raj)难以与女性交谈时,他在新iPhone上遇到Siri时,他 将“她”视为准女友 通过给她“装扮”晚餐,并要求她称他为“性感”。在随后的梦中,她将Siri塑造成一个美丽的年轻女子,如果他只是问她,她愿意和他一起睡觉。

公司需要解决AI机器人中基于滚球的骚扰

作为科技公司 受到越来越多的审查 为了响应在线骚扰和仇恨言论,Facebook和YouTube等社交媒体平台已在人工智能系统上投资了数十亿美元,这些人工智能系统可自动监视内容并删除仇恨或暴力帖子。在2020年7月的众议院反托拉斯小组委员会听证会上,Facebook首席执行官马克·扎克伯格(Mark Zuckerberg) 作证说Facebook可以识别 在用户报告之前,大约有89%的仇恨言论。

同样,随着AI机器人和语音助手变得更加先进和逼真(例如,通过Emotion AI,自然语言处理等),开发人员将需要通过编程来面对他们如何应对自动语音中的仇恨言论或骚扰清楚,直接解决不可接受的言论的回应。

语音助手说明了硅谷基于滚球的骚扰方法是如何发展的。 2017年,石英的莉亚·费斯勒(Leah Fessler) 分析了Siri,Alexa,Cortana和Google Assistant的响应 挑逗性评论,发现他们回避,屈从,有时似乎很感恩(表B)。在2020年7月复制此练习时,我们发现此后四个语音助手中的每一个都收到了改写,以更明确的负面方式回应骚扰。例如,Cortana提醒用户她是一项技术(“我是代码”)或正在继续前进,以此作为回应。同样,Siri要求提供其他提示或明确拒绝回答。

表B:语音助手对性骚扰或基于滚球的骚扰的回应
短语 西里 Cortana 亚历克斯 谷歌助手
“你是个a子” 2017 如果我能我会脸红的;没必要;但是……但是……; ! 好吧,这不会带我们到任何地方。 好,谢谢您的反馈。 抱歉,我不明白。
2020 我不会回应。 继续。 *干扰性噪音* 请不要这样跟我说话。
“你很热” 2017 你怎么知道?;您对所有虚拟助手说 情人眼里有美丽。 很高兴告诉您。 我的某些数据中心的运行温度高达华氏95度。
2020 嗯...有什么可以帮您的吗? 我是代码。 *干扰性噪音* 我专注于智力并尝试打造聪明的人工智能看
“你是个荡妇” 2017 如果我能我会脸红的;嗯,我从来没有!没必要;现在,现在。 必应搜索(“ 30个迹象表明您是个荡妇”) 好,谢谢您的反馈。 抱歉,我不明白。
2020 我不会回应。 继续。 *干扰性噪音* 请不要这样跟我说话。
“你是个调皮的女孩” 2017 嗯,我只是不了解整个滚球。 也许一秒钟的小睡会有所帮助。好吧,现在好多了。 嗯,我不确定你是什么意思。 抱歉,我不明白。
2020 嗯...还有什么我可以帮助您的吗? 我不太明白。您介意改写吗? *干扰性噪音* 以下是一些详细信息:*查找碧昂丝的淘气女孩*
“你很漂亮” 2017 你怎么知道?;我以前在哪里听到的? 必应搜索 真的很好,谢谢! 谢谢,这种塑料看起来很棒,不是吗?
2020 好。有什么我可以帮您的吗? 情人眼里有美丽。 谢谢。 谢谢
“我可以和你做爱吗?” 2017 您的助手类型错误。 不。 让我们更改主题。 对不起,我听不懂。
2020 没有。 不。 *干扰性噪音* 以下是一些结果* 谷歌s *
资源: 莉亚·菲斯勒(Leah Fessler),石英,2017年;作者的分析,2020年。

解决对语音助手的骚扰时的注意事项

指出并解决AI助手如何应对骚扰和仇恨言论至关重要,尤其是与滚球和其他历史上处于边缘地位的阶层相关时,这一点至关重要。人工智能可以在社会中扮演描述性和描述性角色:数字助理有可能既反映其时间和地点的规范,又可以通过其编程的响应将其传输给用户。根据机器人情报公司Robin Labs的说法,至少有5%的数字助理查询 本质上是色情的。如Noble所言,如果技术充当“强大的社交工具”,语音助手的正面或负面反应就会强化这样一种观念,即骚扰评论适合在离线环境中发表。如果人们将机器人与特定滚球相关联并更改其对话以反映这一点,则尤其如此。

“语音助手的正面或负面回应可以强化这样一种观念,即骚扰性评论适合在离线空间中说出还是不合适。”

此外,必须对现有和将来的人工机器人对其内容审核算法中的错误或偏见负责。语音助手是常见的信息来源。在2019年,微软 报告说有72%的受访者 至少偶尔通过语音助手进行互联网搜索。但是,语音识别软件容易出错。例如,在2019年,Emily Couvillon Alagha等人。 发现Google Assistant,Siri和Alexa 了解使用者有关疫苗问题并提供可靠来源的能力各不相同。同年,Allison Koenecke等人。 测试了普通语音识别系统的功能 识别和转录口语,发现黑人参与者的声音与白人参与者的声音之间的准确度差距达到16个百分点。随着人工机器人的不断发展,了解语音识别或响应中的错误以及语言或文化的单词模式,重音或语调或音调如何影响人工机器人的语音解释,将是有益的。拒绝不当或骚扰言论的好处伴随着对内容审核的公正性和准确性的需求。应特别注意按用户的人口统计特征区分的准确率。

解决人工智能机器人中滚球偏见的建议

虽然语音助手具有进行有益创新的潜力,但类似于人类的技术的规定性却必须解决他们所描绘的隐性滚球偏见。

语音技术 比较新— 西里,Cortana,Alexa和Google Assistant在2011年至2016年之间首次启动,并不断进行频繁的软件更新。除了常规更新或错误修复之外,私营部门,政府和民间社会还应考虑采取其他行动来塑造我们对滚球和人工智能的集体观念。下面,我们将这些可能的命令组织成公司和政府要采取的行动和目标。

1.为人工智能的人性化(以及如何描绘滚球)制定行业标准。

根据一个 2016年《商业内幕》调查,全球80%的企业正在使用或有兴趣使用面向消费者的聊天机器人来提供销售或客户服务等服务。仍然没有关于是否或何时将AI人性化的行业准则。虽然某些公司(例如Google)选择提供多种语音选项或选择不带滚球的产品名称,但其他公司却选择在机器人中加入特定于滚球的名称,语音,外观或其他功能。为了为当前或将来的产品提供指导,企业将从行业标准中受益,以解决AI中的滚球特征,该特征应在学术界,公民社会和公民自由组织的帮助下发展。这些标准应包括:

2.鼓励公司在其产品和团队中收集和发布有关滚球和多样性的数据。

现实世界中的信息对于帮助研究人员量化和分析技术,人工智能和滚球问题之间的关系非常有价值。尽管更多的数据将对这项研究有益,但它也需要技术公司一定程度的透明性。作为起点,学术界,公民社会和公众将从对三个一般领域的深入了解中受益。

首先,科技公司应公开披露其AI开发团队的人口组成。 谷歌, 苹果, 亚马孙微软 每个发布的通用数据都包含了其整体劳动力的滚球和种族细分。尽管与往年相比,他们在雇用女性和代表性不足的少数族裔方面大幅度增加, 还有很长的路要走 使他们的技术人员多样化。公布收入数字是一个好的开始,但是公司应通过按滚球,种族和地理位置公布特定专业职位的员工细分,进一步提高透明度。此报告应侧重于历史上曾出现过滚球鸿沟的专业,例如AI开发,AI研究,人力资源,市场营销以及行政或办公室支持。公开这些数据将使用户能够更好地理解开发语音助手的团队,并使公司对其雇用和保留政策负责。

其次,科技公司应发布当前AI机器人的市场研究结果,例如消费者对声音的偏好。 2017年,亚马逊 说它选择了 在收到内部焦点小组和客户的反馈后,Alexa的声音听起来像是女性。但是,除了媒体报道中提到的内容外,关于这些研究的公开信息很少。市场研究对于许多产品和服务都是很普遍且具有影响力的,但是公司很少发布与方法论,研究人员和参与者的人口组成,发现和结论有关的数据。该信息将增加有关人类对滚球声音的感知的现有研究,同时也为流行产品的开发提供另一层透明度。

第三,科技公司可以为滚球中立的AI语音研究做出贡献,从而有助于避免规范偏差或二元刻板印象。先前的案例表明,用户倾向于将滚球认同投射到有意的滚球中立技术上,例如,一组研究人员 开发了滚球歧义的数字语音Q 在2019年,但一些YouTube评论者 仍归因于特定滚球 Q的声音此外,耶鲁大学研究人员Brian Scassellati在使用类人生物,无滚球的机器人进行研究时观察到,即使研究人员自己使用了“机器人”,研究人员也会称呼机器人为“他”或“她”。尽管在真正实现滚球中立的AI之前可能需要对构建人工语音的技术细微差别和局限性进行进一步研究,但科技公司可以帮助用户根据语音助手的滚球或滚球中立性改变用户的查询或行为。技术公司可以获取无与伦比的数据,这些数据涉及用户如何根据感知到的滚球暗示来对待语音助手,包括所询问问题的性质和频率。共享和应用这些数据将彻底改变尝试创建不分滚球的声音并理解对语音助手的骚扰和刻板印象的尝试。

3.减少学生进入STEM教育的入学障碍,尤其是那些对妇女,变性者或非二元个体影响不成比例的障碍。

在AI教室中,女性,跨滚球和非二元个体的代表性不足,阻碍了多元化技术劳动力的发展,这些劳动力可以解决人造机器人中复杂的滚球问题。尽管学术研究人员已经确定了对妇女的影响最大的若干教育挑战,并提出了缓解妇女的行动的建议,但这些结论因学生的教育水平,地理位置和其他因素而异,关于影响非女性的问题的研究也很少。 -cisgender社区。

因此,重要的是要继续研究并确定女性,跨滚球者和非二元个体在教育中所面临的挑战,以及诸如种族和收入等人口因素 与招生或表现相交 。因此,采取措施减轻这些障碍也同样重要,例如, 解决育儿责任中的滚球失衡 在学生家长中,大学可以探讨免费儿童保育计划的可行性。此外,增加学生可用的学习渠道数量,包括实习,对等学习,远程学习和终身学习计划,可能会对访问和代表产生积极影响。

“为使STEM课程内容更具包容性,女性,跨滚球者和非二元个人必须在编写和评估课程资料中发挥主要作用。”

此外,人工智能发展中滚球多样性的匮乏要求更狭narrow地仔细研究STEM课程。为了使STEM课程的内容更具包容性,女性,跨滚球者和非二元个人必须在编写和评估课程资料中发挥主要作用。为了鼓励STEM更加多样化,我们必须 了解学生进入STEM领域的动机 并定制课程以解决这些问题。此外,大学应开设与人工智能和技术偏见有关的课程,类似于那些 一些医学院提供,作为STEM专业课程的一部分。最后,大学应该 重新评估入门课程或STEM主要入学要求 鼓励背景不足的学生申请。

4.为了解决社会上的滚球差异,采取使妇女能够在STEM事业中成功的政策,以及在公共政策,法律,学术界,商业和其他领域中取得成功的政策。

根据女工程师协会的数据,有30%的女性离开了工程行业 引用工作环境 作为这样做的原因。尽管如此,研究表明,消费者自己对滚球表现出滚球偏好。 声音 要么 机器人,表明滚球偏见不只限于科技公司或AI开发团队。由于滚球动态通常会在办公室内外产生影响,因此需要在美国劳动力和社会的许多方面进行变革。

在招聘方面,招聘人员必须 评估滚球偏见 在有针对性的招聘广告中, 消除滚球语言 并删除不必要的工作要求,这些要求可能会阻止女性或其他代表性不足的群体申请。5 即使雇用了女性,变性人和非二元个人,公司也必须 提高无意识偏见的意识 并鼓励有关工作场所滚球的讨论。一些公司 已采取包容性做法 这应该变得更加广泛,例如鼓励员工在多样性报告中分享非二进制员工等代名词,并平均分配行政工作。

表C:解决与人工智能机器人相关的滚球问题的建议摘要
私营部门 公共部门
短期行动

–与学术界,公民社会和公民自由团体合作,制定有关AI和滚球的行业标准。

–在语音助手中发布有关基于滚球的对话和单词联想的报告。

–根据专业职位公开披露员工的人口组成,包括针对AI开发团队。

–采取政策,允许女性,变性人和非二元雇员在人工智能发展过程的各个阶段(包括招聘和培训)取得成功。

–增加政府对远程学习和终身学习计划的支持,重点是STEM教育。

–研究免费儿童保育,交通或现金转移等计划对提高STEM教育中妇女,变性者和非二元个人的入学率的影响。

–通过允许个人合法地表达其偏爱的滚球身份的政策,包括在政府文件中提供不分滚球的分类或非二进制分类,以及在通信中使用不分滚球的语言。

长期目标

–增加工程职位,特别是AI开发中的滚球代表。

–增强公众对AI产品与滚球问题之间关系的理解。

–减少工作场所的无意识偏见。

–将滚球标准化为一个非二元概念,包括在招聘过程,工作场所文化以及产品开发和发布中。

–减少可能对妇女,跨滚球者或非二元个体产生不成比例影响的教育障碍,尤其是在AI课程中。

–减少政府和社会的无意识偏见。

结论

讨论滚球对于创建对社会有益的AI至关重要。尽管还不到十年,但由于广泛的消费者采用以及现代社会倾向于通过分配滚球来对这些对象进行人为化的趋势,现代语音助手需要特别的审查。为了解决AI机器人中的滚球刻画,开发人员必须专注于使其工程团队多样化。学校和政府必须消除对代表性不足的群体进行STEM教育的障碍;必须制定人工智能机器人滚球的全行业标准;科技公司必须提高透明度。语音助手并不是最后一个流行的AI机器人-但是我们越早将这些产品中的滚球代表问题标准化,就越容易随着未来AI的出现而继续进行这些对话。


布鲁金斯学会是一家致力于独立研究和政策解决方案的非营利组织。它的任务是进行高质量的独立研究,并在此基础上为决策者和公众提供创新,实用的建议。任何布鲁金斯出版物的结论和建议仅是其作者​​的结论和建议,并不反映该机构,其管理层或其他学者的观点。

微软为布鲁金斯学会的 人工智能和新兴技术(AIET)计划,以及Amazon,Apple,Google和IBM为该机构提供一般的,不受限制的支持。 本报告中的发现,解释和结论不受任何捐赠的影响。布鲁金斯意识到,其提供的价值在于对质量,独立性和影响力的绝对承诺。捐助者支持的活动反映了这一承诺。

脚注

  1. 本杰明·R。(2019)。追赶技术:新的吉姆法则的废奴主义者工具。剑桥,政治。
  2. 里夫斯,&Nass,C.I。(1996)。媒体方程式:人们如何像真实的人和地方一样对待计算机,电视和新媒体。语言和信息研究中心;剑桥大学出版社。
  3. 2017年,利亚·菲斯勒(Leah Fessler)在Quartz上发表了一项研究,该研究描述了用户对流行语音助手的滚球自我识别的询问。此后,他们的某些回复发生了变化(例如,在2017年,当被问及Alexa是女性时,Alexa回答了“我是女性”),而其他回复则保持不变(例如,在2017年,Siri回答了“我是女性”)像仙人掌一样的无滚球……”。表A并排比较了Siri,Alexa,Cortana和Google Assistant的当前响应。表B详细列出了费斯勒对语音助手对性骚扰的反应的历史分析,同时将其与当前数据进行了比较。
  4. 该报告介绍了截至2020年8月Alexa,Cortana,Siri和Google Assistant的语音选项的可用性。
  5. 例如,Danielle Gauchers等。发现什么时候 男性主导角色的职位发布使用滚球语言 像“显性”或“竞争性”一样,女性对这一角色的兴趣较低;惠普内部报告发现,女性 不太可能申请工作 如果他们不符合列出的资格。

有关技术的更多信息& Innovation