技术小站8

网站首页 互联网 > 正文

谷歌的家庭扬声器助理和亚马逊的Alexa是目前最受欢迎的数字助理

2022-01-31 09:48:26 互联网 来源:
导读 联合国的一份报告间接指责苹果、谷歌、微软等智能助手提供商默认使用女性助手声音,加剧性别偏见。苹果的Siri、微软的Cortana、谷歌的家庭

联合国的一份报告间接指责苹果、谷歌、微软等智能助手提供商默认使用女性助手声音,加剧性别偏见。苹果的Siri、微软的Cortana、谷歌的家庭扬声器助理和亚马逊的Alexa是迄今为止最受欢迎的数字助理。大多数情况下,所有这些助手默认使用女性声音。一些助手专门处理女性声音,如Alexa,而另一些助手允许用户在设置中更改声音性别,如Siri。

在某些情况下,助理的默认语音性别取决于用户的具体市场,苹果就是一个很好的例子——Siri在大多数国家使用女性语音,但当系统语言设置为阿拉伯语、法语时,她默认使用男性语音、荷兰语或英式英语。

报告中,标题是“能脸红就脸红”:

由于大多数语音助手的声音都是女性的,它们表明女性是强迫、温顺和渴望的助手,这可以通过按下按钮或使用直接的语音命令(如“嘿”或“OK”)来获得。

该助理没有指挥官要求的任何代理权限。它尊重命令,回应询问,无论其语气或敌意如何。在许多社区,这加剧了普遍存在的性别偏见,即妇女顺从并容忍虐待。

正如9to5Mac所指出的,报告的标题(“如果可以我会脸红”)曾经是Siri的回应之一,称其为婊子(另一份报告:“嗯,我从来没有!”),但苹果把这些回复改成了“我不知道该怎么回应”。

同样令人担忧的是,女性人工智能助手可能会让孩子对女性在现代社会中的角色产生错误的想法,这可能意味着女性、女孩和性别女性根据自己的需求做出反应是正常的。

哈佛大学研究无意识偏见的研究员Calvin Lai说,人们采用的性别关联取决于人们与他们接触的次数。随着女性数字助理的普及,“女性”和“助理”之间联系的频率和数量急剧增加。

赖说,文化教会人们更多地将女性等同于助理,更多的真正的女性会被视为助理,因为不像助理而受到惩罚。这表明强大的技术不仅可以复制性别不平等,还可以扩大性别不平等。

除了苹果、谷歌、微软和亚马逊,他们都知道这一切的文化细节,我不知道该如何看待这份报告。否则,Siri默认的声音性别将不会取决于地区,但我不确定这两家公司是否意识到,全女性助理的声音确实可以而且可能会加剧性别偏见,尤其是对于那些认为这是女性声音和卑鄙的心随着时间的推移而联系在一起的孩子来说。

女助理的声音真的强化了西方的性别刻板印象吗?你觉得这份报告怎么样?请务必在下面的评论部分包含您的想法。


版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。


标签:




热点推荐
热评文章
随机文章