人工智慧里存在性别偏见吗:人工智能语音助理为何都是女声
原标题:人工智慧里存在性别偏见吗:人工智能语音助理为何都是女声?先来点结论:人工智慧语音助理的名字和声音,常常以女性为样板,而专业技能导向的人工智慧,则有男性形象的指涉。这一切的安排,可能不是偶然,而是科技业复制性别角色期待在作祟!
去年,亚马逊被爆出用来筛选求职者履历的人工智慧,会因为数据学习及演算法的偏差,而对男性求职者较为有利。2017年,Google也因为当你搜寻「医生」一词时,大多数出现的图片是白人男性而遭受质疑。这类型的事件层出不穷,事实上,不只是在演算法上的偏差,导致人工智慧强化了社会中的性别歧视与性别刻板印象,在「人工智慧的预设性别」上,我们也能看出社会对不同性别的角色期待。
2018年二十国集团女性会议中也特别强调,在研发人工智慧时,技术人员应该要对性别更有意识。在会议中他们提供了一些方法,能让这些机器人们也来学学性别平等。像是「应该被喂养更多关于性别平等的资料」、「找出系统中的性别偏误,并更改演算法加以修正」等。
不过,那些都是人工智慧该去学习的事了,姑且先放到一旁。我们先一起来看看,生活中常接触到的人工智慧,暗藏了哪些性别角色期待吧!
语音助理怎么都是女声?
苹果Siri、Google助理、亚马逊Alexa、微软Cortana等,甚至早在1964年,最早期的聊天机器人Eliza,这些语音助理的预设声音都是女声,也常用女性名称命名。这可能不是个巧合,更可能的原因是「助理通常都是女性」的性别角色期待。
助理的工作通常是协助安排会议、管理行程、查找私讯,在大部分的工作领域中,这个职位还是多由女性担任。所以当我们想到助理,第一个想到的还是女性的形象,同样的期待拉到科技领域中,让我们直觉就认为语音助理也该是女声。
有人可能会说「研究指出,女性的声音较男性友善、没有敌意,大众比较偏好语音助理是女性的声音」。但在现实生活中,有许多报告都指出,在职场上男性的声音,甚至是男性的名字,都更有说服力。所以大家偏好的,其实不是女性声音本身,而是「女性声音和助理」之间的连接性。
当我们在现实生活中,习惯助理是女性、习惯被女性服务、习惯在家中都是女性(妈妈)为我们打点生活中的大小事,语音助理被设计成女性,只是复制生活中的性别角色期待,也强化了性别刻板印象。
展开全文科技业失衡的性别结构与性别观点
其实,若说「人工智慧以女性为样板」,也不完全对。
2010年由IBM制造的人工智慧Watson,在电视综艺节目《危险边缘》中,打败了最高奖金得主和连胜纪录保持者,赢得了美金100万元的奖金。2016年,同样由IBM制造的第一位人工智慧律师Ross,可以帮人快速的查阅法律文件,还能自动追踪案件的最新情况。这些具备专业技能的人工智慧,都以惯用于男性的名字称呼。
从这些例子我们可以发现,当女性机器人还多以「饭店机器人梦子」、「性爱机器人」等形象出现,而在专业领域中的人工智慧,却还是由男性大放异彩,这或许可以追溯到制造者的性别比例。
在科技业的技术与研发人员中,女性只占了其中的少数,像是Google内部的女性工程师约只占了20%,参与开发人工智慧的更只有10%是女性!
当女性无法在人工智慧的开发中,位居具有影响力的位置。那么就会由男性工程师,依照他们的性别观点,去塑造出人工智慧的观点,以及他们设计演算法背后所暗含的性别角色期待。
无性别的人工智慧Q
如果这些语音助理在一开始设定时,就能让用户自行选择要使用女性或是男性的声音,这样就够平等,足以打破性别角色的刻板印象了吗?
或许最近诞生的第一个「无性别的人工智慧」Q可以解决这个问题。Q是由丹麦多元文化组织「CopenhagenPride」、致力消除人工智慧无意识偏见的EqualAI等五个组织联手打造的,希望能提供更多元人工智慧语音选择,让性别不再只有男性或女性两个选择。你可以点进Q的官网听听看它的声音,有时候像女生、有时候又似乎是男生,制造团队希望藉由这样的系统,削弱人工智慧里的性别偏见,并带起科技界中对于人工智慧更开阔地想像,也对世界上的不同族群更友善及包容。
科技的发展,的确带给人们的生活许多便利。但科技就如同人性,我们生活在一个带有性别角色期待的环境中,必然连带影响到科技的产物,让伴随而来的人工智慧也带有同样的性别刻板印象。试想,如果有更多女科技人才能进入决策或研发领域,被设计出来的人工智慧会有什么不同呢?返回搜狐,查看更多
责任编辑: