博舍

《人工智能国际治理观察》第67期 人工智能偏见问题的例子有哪些

《人工智能国际治理观察》第67期

「布鲁金斯学会:美国可通过解决偏见问题来改善其人工智能治理战略」

2022年5月17日,布鲁金斯学会(BrookingsInstitution)发布其技术创新中心主任尼科尔·特纳·李(NicolTurnerLee)以及技术创新中心研究助理SamanthaLai所撰写的《美国可通过解决网上的偏见来改善其人工智能治理战略(TheU.S.canimproveitsAIgovernancestrategybyaddressingonlinebiases)》。作者指出,美国一直在努力编纂其国家人工智能倡议,该倡议侧重于六个战略支柱,分别为改善人工智能创新,推进可信的人工智能,通过人工智能创造新的教育和培训机会,通过新技术改善现有基础设施,促进联邦和私营部门利用人工智能改善现有系统以及打造有助于人工智能进一步发展的国际环境。美国商务部和美国国家标准与技术研究所于今年4月宣布了首届国家人工智能咨询委员会(NationalArtificialIntelligenceAdvisoryCommittee,NAIAC)的成员,该委员会将负责就如何开展国家人工智能治理工作向拜登政府提供建议。NAIAC于2022年5月4日召开了首次会议,讨论了人工智能的使用和监督问题。作者认为,国家人工智能倡议和NAIAC的建立都将有助于美国进一步建立关于人工智能的国家规范。此外,作者还指出,打造人工智能国家规范,需重点关注弱势群体受到的差别待遇。如果美国将这种考虑排除在国家治理的讨论之外,那么这种历史性和系统性的不平等将长期存在,且会限制人工智能创新,影响金融服务、招聘、刑事司法、医疗保健、教育等领域的包容性,并削弱公平和公正等民主价值观。作者还指出,虽然NAIAC在收集各利益相关者的意愿方面发挥关键作用,但是获得更具包容性和受影响群体的意见对制定和执行更具弹性的治理方法十分关键。作者基于布鲁金斯学会在此方面的研究,提出了有助于帮助美国解决偏见问题,保护弱势群体利益,促进打造具有包容性、负责任的和可信赖的人工智能系统的建议。

作者表示,首先必须界定何为人工智能偏见,美国需要对人工智能及其可能产生的相关问题有一个共同的理解。与欧盟的定义相比,美国国家人工智能倡议对值得信赖的人工智能定义显得更为宽泛和笼统,而欧盟则是根据实际风险程度对人工智能进行了定位,将人工智能的使用分为了三个不同的等级。经济合作与发展组织和其他国际机构对可信人工智能的定义则重点考虑了公民权利和人权。作者还指出,与美国相比,国际实体对偏见的定义采取了更积极主动的方式,以确保对所处理的伤害有一些共同的共识。此外,尽管美国已经采取了一些缓解人工智能歧视问题的举措,例如拜登政府将公平作为国家人工智能倡议的重点,并发布行政命令指示美国国防部投资于有助于促进多样化的人工智能项目,但作者认为美国还可以采取更多解决人工智能歧视问题的举措。

作者还指出,如果联邦政府在识别偏见和解决该问题方面出现问题,将会削弱人们对自主系统功效的信任,特别是对于其日常生活越来越依赖自主系统的公民。作者提出了7个因人工智能歧视问题而引起关注的领域。美国在住房和贷款方面存在的种族不公平性现象已由来已久,房屋评估和贷款审批中的偏见对该领域相关系统的运用仍构成挑战,已有自动抵押贷款系统被发现向黑人和西班牙裔借款人收取明显较高的抵押贷款价格。在招聘领域,如今,越来越多的公司正在使用人工智能来降低其运营成本,提高招聘效率。然而,这些系统并没有脱离实体工作场所中存在的性别差异和人种差异,已有招聘算法被证明对白人群体更为有利。在刑事司法领域,有偏见的歧视性法律的历史加强了刑事司法系统中的种族主义,该系统对低收入者和有色人种的政策和监禁比例过高。而在这一领域引入人工智能,只是在系统内创造了一个新的不公正的实施者。由司法部创建的PATTERN算法被用来预测累犯和缩短基于良好行为的刑事判决,然而该算法已被证明对有色人种存在偏见。这种风险评估工具在刑事司法系统中得到了广泛使用,但在几乎没有监督的情况下加剧了司法系统内现有的偏见。人工智能在医疗保健领域的使用也被证明会加剧社会不平等,例如,一种被用于确定移植名单安排的算法已被证实其种族系数使黑人患者在名单上的位置低于白人患者,尽管美国黑人患肾衰竭的可能性明显高于美国白人。作者表示,事关生死的问题任由有偏见的技术摆布,令有色人种面临的现有健康不平等现象更加恶化。人工智能在金融系统中的使用,也使偏见进一步延续。一些金融科技公司的算法延续了传统贷款模式中存在的偏见问题。另一个问题是信用隐形,4400万美国人因与主流金融服务脱节,而没有信用记录。由于缺乏数据,金融科技无法评估这些人群的未来借贷或信贷行为,导致他们仍然受到美国财富差距的困扰。在政治虚假信息方面,无节制的数据收集,加上人工智能在社交媒体算法中的使用,使得不良行为者能够针对边缘化群体传播虚假信息。政治虚假信息威胁着少数种族的公民权利,为他们充分参与美国的民主制度设置了障碍。许多关于人工智能的用例都依赖于人脸检测和面部识别技术,在对不同主体进行识别和分类时,这些技术存在着技术缺陷。例如,由于使用不准确的面部识别技术而导致了多次错误的逮捕。此外,还存在另外两个加剧人工智能偏见的关键因素,即数据质量和劳动力多样性。现有的数据记录了历史上边缘化社区遭受不公正待遇的情况。当这些历史遗留问题被纳入现有的数据集并显示在机器学习算法中后,其所自带的弊端也被继续延续下来。人工智能劳动力的多样也是值得关注的问题。缺乏多样性意味着机器学习算法和其他自主系统的开发会缺乏必要的生活经验,从而无法避免不良的数据处理,以及创造更好的产品或服务。

作者表示,人工智能偏见的深度和广度迫使联邦政府需要有原则的指导和解决方案。如果没有一个框架来主动解决这些国内挑战,数字竞争力就不能在美国充分实现。为了,解决上述问题,NAIAC已成立了一个关于人工智能和执法的小组委员会,负责调查偏见和数据安全问题。此举表明美国政府致力于构建以人为本的人工智能,并打击人工智能系统中常见的现有偏见。为了更好地设计和执行国家人工智能治理战略,作者还提出了几条建议。作者指出,美国需要对现有的民权制度进行更新,以确定人工智能治理的可解释性。美国还应识别并确定具体的使用案例,以提出更严格的监督和监管的建议。在考虑人工智能风险时,重要的是概述和明确哪些用例需要进行严格的监督和监管。此外,人工智能治理应该民主化,因此,应允许技术专家以外的人参与。对此,美国必须深化其对人工智能治理的参与性方法,鼓励公众投入、行业最佳实践和进行消费者披露。鉴于,人工智能偏见中的许多令人震惊的现象来自于现有的系统性不平等,且这些不平等植根于种族主义。虽然开发者团队的多样化、对数据偏见的审查以及广泛的消费者投入都将有助于在人工智能设计和执行中实现公平竞争。美国应该考虑并采用反种族主义的方法来处理人工智能系统中的偏见与歧视。

尼科尔·特纳·李(NicolTurnerLee):布鲁金斯学会技术创新中心主任、治理研究方向高级研究员

SamanthaLai:布鲁金斯学会技术创新中心研究助理

原文链接:

https://www.brookings.edu/blog/techtank/2022/05/17/the-u-s-can-improve-its-ai-governance-strategy-by-addressing-online-biases/

人工智能偏见(AI Bias)是什么及有哪些类型,例子和解决办法

随着越来越多的个人和企业看到人工智能在各种使用案例中的好处,人们对人工智能(AI)的兴趣正在增加。然而,围绕人工智能技术也有一些合理的担忧:

在这篇文章中,我们专注于人工智能偏见,并将回答有关人工智能算法中的偏见的所有重要问题,从人工智能偏见的类型和例子到从人工智能算法中消除这些偏见。

什么是人工智能偏见?

AI偏见是机器学习算法输出中的异常现象,是由于算法开发过程中的偏见假设或训练数据中的偏见造成的。

AI偏见的类型有哪些?

人工智能系统包含偏见,原因有二:

认知偏见:这些是无意识的思维错误,会影响个人的判断和决定。这些偏见产生于大脑试图简化处理关于世界的信息。心理学家已经对180多个人类偏见进行了定义和分类。认知偏见可能通过以下两种方式渗入机器学习算法中:设计者在不知情的情况下将其引入模型中;训练数据集包括这些偏见。缺少完整的数据:如果数据不完整,它可能不具有代表性,因此它可能包括偏见。例如,大多数心理学研究包括本科生的结果,而本科生是一个特定的群体,并不代表整个人口。

图1.人工智能在医疗应用中的设计和使用中的不平等和歧视(Source:BritishMedicalJournal)

人工智能是否会完全不偏不倚?

从技术上讲,是的。一个人工智能系统可以像其输入数据的质量一样好。如果你能把你的训练数据集从关于种族、性别或其他意识形态概念的有意识和无意识的假设中清理出来,你就能建立一个人工智能系统,做出无偏见的数据驱动的决定。

然而,在现实世界中,由于我们上面提供的相同论据,我们不期望人工智能在短时间内完全不偏不倚。人工智能可以像数据一样好,而人是创造数据的人。人类有许多偏见,而且正在进行的对新偏见的识别正在不断增加总数。因此,可能不可能有一个完全没有偏见的人类头脑,所以人工智能系统也是如此。毕竟,人类正在创造有偏见的数据,而人类和人类制造的算法正在检查数据以识别和消除偏见。

对于人工智能的偏见,我们能做的是通过测试数据和算法,并以负责任的人工智能原则开发人工智能系统,将其降至最低。

如何修复人工智能和机器学习算法中的偏见?

首先,如果你的数据集是完整的,你应该承认,人工智能的偏见只能是由于人类的偏见而发生的,你应该专注于从数据集中消除这些偏见。然而,这并不像听起来那么容易。

一个天真的方法是从数据中删除受保护的类别(如性别或种族),并删除使算法产生偏见的标签。然而,这种方法可能不起作用,因为删除的标签可能会影响对模型的理解,你的结果的准确性可能会变得更糟。

因此,没有快速消除所有偏见的方法,但有像麦肯锡这样的顾问提出的高水平建议,强调了人工智能偏见最小化的最佳做法:

Source:McKinsey

修复人工智能系统中的偏见的步骤:

1.深入研究算法和数据,评估哪里的不公平风险高。比如说:

检查训练数据集是否有代表性,是否足够大,以防止常见的偏见,如抽样偏见。进行子种群分析,包括计算数据集中特定群体的模型指标。这可以帮助确定模型的性能在不同的子群体中是否是相同的。随着时间的推移监测模型的偏差。ML算法的结果会随着它们的学习或训练数据的变化而改变。

2.在你的整体人工智能战略中建立一个去偏策略,包含技术、操作和组织行动的组合:

技术策略涉及的工具可以帮助你识别潜在的偏见来源,并揭示数据中影响模型准确性的特质运营策略包括利用内部“红队“和第三方审计师改善数据收集流程。你可以从谷歌AI关于公平性的研究中找到更多的做法组织策略包括建立一个透明地展示指标和流程的工作场所

3.在你识别训练数据中的偏见时,改善人类驱动的流程。模型的建立和评估可以突出那些已经被注意了很久的偏见。在建立人工智能模型的过程中,公司可以识别这些偏见,并利用这些知识来了解偏见的原因。通过培训、流程设计和文化变革,公司可以改善实际流程以减少偏见。

决定在哪些用例中应优先考虑自动决策,哪些用例中应由人类参与。遵循一个多学科的方法。研究和开发是最大限度地减少数据集和算法中的偏差的关键。消除偏见是一个多学科的战略,由伦理学家、社会科学家和最了解每个应用领域细微差别的专家组成,在这个过程中。因此,公司应寻求在其人工智能项目中纳入此类专家。使你的组织多样化。人工智能社区的多样性使偏见的识别变得容易。首先注意到偏见问题的人,大多是来自该特定少数民族社区的用户。因此,保持一个多元化的人工智能团队可以帮助你减轻不必要的人工智能偏见。

以数据为中心的人工智能开发方法也可以帮助尽量减少人工智能系统中的偏见。

减少偏见的工具

AIFairness360

IBM发布了一个开源库,用于检测和减少无监督学习算法中的偏见,目前在Github上有34个贡献者(截至2020年9月)。该库被称为AIFairness360,它使AI程序员能够

用一套全面的指标测试模型和数据集的偏差。在12个打包算法的帮助下,减轻偏见,如学习公平代表,拒绝选项分类,差异影响去除器。

然而,AIFairness360的偏见检测和缓解算法是为二进制分类问题设计的,这就是为什么如果你的问题更复杂,它需要扩展到多类和回归问题。

IBMWatsonOpenScale

IBM的WatsonOpenScale在人工智能做出决定时实时进行偏见检查和缓解。

Google’sWhat-IfTool

使用What-If工具,你可以在假设的情况下测试性能,分析不同数据特征的重要性,并在多个模型和输入数据的子集以及不同的ML公平性指标上可视化模型行为。

有哪些人工智能偏见的例子?消除呼叫中心的选定口音

湾区初创公司Sanas开发了一个基于人工智能的口音翻译系统,使来自世界各地的呼叫中心工作人员听起来对美国客户更熟悉。该工具将说话者的口音实时转化为“中性“美国口音。据SFGATE报道,Sanas公司总裁MartySarim说,口音是一个问题,因为“它们会导致偏见,会造成误解”。

种族偏见不可能通过让每个人听起来都是白人和美国人而消除。相反,这将加剧这些偏见,因为如果美国白人口音成为常态,不使用这种技术的非美国呼叫中心工作人员将面临更严重的歧视。

亚马逊带偏见的招聘工具

怀着将招聘过程自动化的梦想,亚马逊在2014年开始了一个人工智能项目。他们的项目完全是基于审查求职者的简历,并通过使用人工智能驱动的算法对求职者进行评级,这样招聘人员就不会在人工简历筛选任务上花费时间。然而,到了2015年,亚马逊意识到他们的新人工智能招聘系统没有对候选人进行公平的评级,它显示出对女性的偏见。

亚马逊曾使用过去10年的历史数据来训练他们的人工智能模型。历史数据包含对女性的偏见,因为整个科技行业都是男性占主导地位,男性占亚马逊员工的60%。因此,亚马逊的招聘系统错误地认为男性候选人更受欢迎。它惩罚了包含“女性”一词的简历,如“女子国际象棋俱乐部队长”的简历。因此,亚马逊停止将该算法用于招聘目的。

https://static.wbolt.com/wp-content/uploads/2023/04/Amazons-Sexist-Recruitment-AI.mp4

医疗保健风险算法中的种族偏见

一种用于2亿多美国公民的医疗保健风险预测算法显示出种族偏见,因为它依赖一个错误的指标来确定需求。

该算法旨在预测哪些病人可能需要额外的医疗护理,然而,后来发现该算法产生了错误的结果,有利于白人病人而不是黑人病人。

该算法的设计者使用以前病人的医疗支出作为医疗需求的代表。这是对历史数据的错误解释,因为收入和种族是高度相关的指标,只根据相关指标中的一个变量进行假设,导致该算法提供不准确的结果。

Facebook广告中的偏见

人类偏见的例子很多,我们看到这种情况发生在科技平台上。由于科技平台上的数据后来被用来训练机器学习模型,这些偏见导致了有偏见的机器学习模型。

2019年,Facebook在允许其广告商根据性别、种族和宗教有意地锁定广告。例如,在护理或秘书工作的招聘广告中,女性被优先考虑,而看门人和出租车司机的招聘广告则主要展示给男性,特别是来自少数民族背景的男性。

因此,Facebook将不再允许雇主在其广告中指定年龄、性别或种族目标。

更多资源KritaSharma的Ted演讲

KritaSharma是一位人工智能技术专家和企业高管,他正在解释科技界缺乏多样性是如何悄悄进入人工智能的,并提供三种方法来制造更有道德的算法:

https://static.wbolt.com/wp-content/uploads/2023/04/How-to-keep-human-bias-out-of-AI-_-Kriti-Sharma.mp4

BarakTurovsky在2020年ShellyPalmer创新系列峰会上发言

巴拉克-图罗夫斯基是谷歌AI的产品总监,他正在解释谷歌翻译是如何处理AI偏见的:

https://static.wbolt.com/wp-content/uploads/2023/04/AI-Bias-Explained-by-Google-at-the-Shelly-Palmer-Innovation-Series-Summit-at-CES-2020.mp4

希望这能澄清关于人工智能偏见的一些主要观点。关于人工智能如何改变世界的更多信息,你可以查看关于人工智能、人工智能技术和人工智能在市场营销、销售、客户服务、IT、数据或分析中的应用的文章。

网信安全世界

《期货公司网络和信息安全三年提升计划(2023-2025)》发布

《人工智能安全标准化白皮书(2023版)》发布

国家网信办发布《个人信息出境标准合同备案指南(第一...

《商用密码管理条例》全文公布,7月1日起施行

工信部发布《整车信安技术要求》《自动驾驶数据记录系...

五月正式实施!一文带你看懂《关基保护要求》

五部门联合发布《关于调整网络安全专用产品安全管理有...

数据出境安全评估办法

个人信息出境标准合同办法

网络安全等级测评与检测评估机构自律规范

人工智能也有偏见与歧视,如何解决成为行业难题

IBM和Salesforce是人工智能工具软件领域的两家领军企业,这两家公司的高管在近日指出,对于那些希望采用人工智能软件的公司来说,偏见仍然是一个值得担忧的根本性问题。

让很多企业越来越担心的是,用于训练人工智能系统的数据中所隐藏的偏见,有可能会导致系统生成的结果对某些应该受到保护的群体(比如女性和少数族裔)做出不公平的结论,甚至造成歧视或涉嫌违法。

比如有人发现,一些人脸识别系统在识别深肤色和浅肤色人脸时,精确度往往不高,原因是用于训练该系统的深肤色人脸数据远远不足。最臭名昭著的一个例子是,美国部分州的司法部门使用了一套人脸识别系统,用来决定是否应该批准犯罪嫌疑人保释或假释。然而在犯罪记录相似的前提下,系统却认为黑人嫌犯比白人嫌犯有更高的再次犯罪风险。

软件公司Salesforce的首席科学家理查德·佐赫尔在科罗拉多州阿斯彭市举办的《财富》头脑风暴科技大会上指出:“偏见将成为未来人工智能领域里的一个根本性问题。”

在这次《财富》头脑风暴科技大会上,IBM公司的研究总监达里奥·吉尔也表达了同样的担忧:“我们需要在人工智能工程上采取坚实手段,以防止人工智能出现毫无根据的偏见。”

吉尔表示,IBM正在加大相关技术的研发力度,为企业提供所谓“数据志”功能。这种技术能够记录系统是使用哪些数据决策的,这些数据又是如何生成的、何时被使用的,以及它是如何用于进行推荐或预测的。

吉尔说,这种人工智能的审查跟踪机制对于问责十分重要,毕竟责任终究是要由人来承担的。他表示:“我们必须把责任落实到开发这个软件的人身上,我们要知道他们的目的是什么、意图是什么。创建和使用这个软件的机构必须要承担责任。”

吉尔和佐赫尔都表示,消除人工智能的偏见并不是一件容易的事情,特别是机器学习系统非常擅于发现数据集里各个变量的相关性。因此,虽然我们可以告诉这些软件在进行相关决策时(比如提供征信方面的建议)不考虑种族因素,但系统仍然会考虑到一个人的住址或邮编等变量。佐赫尔指出,至少在美国,像地址、邮编等信息,实际上还是有可能与族裔群体高度相关的。

吉尔还表示,着眼这一问题,IBM已经开发了一些相关软件,比如它的AIFairness360工具包,可以帮助企业自动在数据中发现类似隐藏的相关性问题。

不过,佐赫尔也指出,发现这种相关性是一回事,但从很多方面看,知道究竟应该怎样解决它,则是一个困难得多的问题。

佐赫尔表示,在某些情况下,只将一种产品推荐给女性是没有问题的——比如吸奶器。而在其他情况下,如果系统在进行推荐时出现了类似的性别歧视,则可能涉嫌违法。Salesforce等公司生产的一些通用型人工智能工具几乎各行各业都可以使用,因此他们面临的困难也尤为特殊。

吉尔和佐赫尔都表示,正因为如此,很多企业才选择用自己的数据来训练人工智能系统,而不是使用已经使用预先训练好的软件包来执行聊天机器人或自动图像标记程序的训练任务。吉尔指出,构建自己的人工智能程序,让企业掌握了更大的控制权,同时也更有可能检测出隐藏的偏见。

佐赫尔和吉尔还表示,人工智能的优点之一,就是它能够帮助企业发现其实际业务中现有的偏见因素。比如,它可以发现哪些管理者不愿意提拔女性员工,哪些金融机构不愿意向少数族裔发放信贷等等。佐赫尔表示:“人工智能有时就像我们面前的一面镜子,它会告诉你,这就是你一直以来在做的事情。”

佐赫尔认为,在构建人工智能系统的人自身变得更加多元化之前,有些类型的偏见是不太可能被彻底消除的。目前,很多从事人工智能软件开发的计算机工程师都是白人,而且当前开发的很多人工智能软件都只反映了城市富裕人口的需求。他还表示,这也是Salesforce公司何以支持非洲深度学习大会(DeepLearningIndaba)等项目的原因之一。非洲深度学习大会也是非洲地区人工智能研究人员的一次盛会。(财富中文网)

译者:朴成奎

让人工智能摆脱偏见

作者:FranciscoSocal,ImaginationTechnologies

人们都曾看过电影里机器控制了世界而人类被毁灭的场景。好在这些电影只是娱乐性的,现实世界是不会发生的。然而,一个更应该关注的问题是:算法偏见。

所谓“算法偏见”是指在看似没有恶意的程序设计中带着设计者的偏见,或者所采用的数据是带有偏见的。结果当然是带来了各种问题,例如,被曲解的谷歌搜索,合格的考生无法进入医学院就学,聊天机器人在推特上散布种族主义和性别歧视信息等。

算法偏见造成的最棘手的问题是,从事编程的工程师即使主观上没有种族主义、性别、年龄歧视等倾向,也有可能造成偏见。人工智能(AI,ArtificialIntelligence)本质上就是为了自学而设计的,有时它的确会出错。当然,人们可以在事后做出调整,但最好的解决办法是一开始就防止它发生。那么,如何才能让人工智能摆脱偏见呢?

具有讽刺意味的是人工智能最令人兴奋的可能性之一就是能够搭建一个没有人类偏见的世界。比如当涉及到招聘时,一种算法可以让男性和女性在申请同一份工作时获得平等的待遇,或者在警务工作中避免种族偏见的发生。

不管人们是否意识到,人类创造的机器确实反映了人们怎样是看待世界的,因此也会有类似的刻板印象和世界观。由于人工智能越来越深入到生活中,人类必须重视它。

人工智能面临的另外一个挑战是,偏见不是以一种形式出现的,而是有各种类型的。这包括交互偏见、潜意识偏见、选择偏见、数据驱动的偏见和确认偏见。

“交互偏见”是指用户由于自己与算法的交互方式而使算法产生的偏见。当机器被设置向周围环境学习时,它们不能决定要保留或者丢弃哪些数据,什么是对的,什么是错的。相反,它们只能使用提供给它们的数据——不论是好的、坏的,还是丑的,并在此基础上做出决策。前面提到的聊天机器人Tay便是这类偏见的一个例子。它是受到一个网络聊天社区的影响而变得偏种族主义了。

“潜意识偏见”是指算法错误地把观念与种族和性别等因素联系起来。例如,当搜索一名医生的图像时,人工智能会把男性医生的图像呈现给一名女性,或者在搜索护士时反过来操作。

“选择偏见”是指用于训练算法的数据被倾向性地用于表示一个群体或者分组,从而使该算法对这些群体有利,而代价是牺牲其他群体。以招聘为例,如果人工智能被训练成只识别男性的简历,那么女性求职者在申请过程中就很难成功。

“数据驱动的偏见”是指用来训练算法的原始数据已经存在偏见了。机器就像孩子一样:他们不会质疑所给出的数据,而只是寻找其中的模式。如果数据在一开始就被曲解,那么其输出的结果也将反映出这一点。

最后一类是“确认偏见”,这类似于数据驱动的偏见,偏向于那些先入为主的信息。它影响人们怎样收集信息,以及人们怎样解读信息。例如,如果自己觉得8月份出生的人比其他时候出生的更富有创造性,那就会偏向于寻找强化这种想法的数据。

当我们了解到这么多偏见的例子渗入到人工智能系统时,似乎会引起我们的担忧。但重要的是要认清事实,记住这个世界本身就是有偏见的,因此,在某些情况下,人们对从人工智能中得到的结果并不奇怪。然而,并不应该如此,人们需要一个对人工智能算法和系统进行测试和验证的过程,以便在开发期间和部署之前及早发现偏见。

与人类不同,算法不能撒谎,因此,如果结果是有偏见的,那一定有原因:和它得到的数据有关。人类可以撒谎去解释不雇佣某人的原因,但人工智能不能。而采用算法,就有可能知道什么时候会出现偏见,并对其进行调整,以便将来能克服这些问题。

人工智能会学习,也会犯错。通常情况下,只有在实际环境中使用算法后才能发现任何内在的偏见,因为这些偏见在实践中被放大了。不应把算法看成是一种威胁,而是解决任何偏见问题的好机会,并能在必要的时候加以纠正。

可以通过开发系统来发现有偏见的决策,并及时采取措施。与人类相比,人工智能特别适合采用贝叶斯(Bayesian)方法来确定某种假设的概率,从而消除所有人类偏见的可能性。这比较复杂,但是可行的,特别是考虑到人工智能的重要性(在以后几年里只会越来越重要)。

随着人工智能系统的建立和部署,非常重要的一点是必须理解它们是怎样工作的,只有这样才能通过设计让它们具有意识,避免将来出现偏见问题。不要忘记,尽管人工智能发展非常迅速,但仍处于起步阶段,还有很多值得学习和改进的地方。这种调整会持续一段时间,在此期间,人工智能会变得更聪明,将有越来越多的方法来克服偏见等问题。

技术行业总是在质疑机器是怎样工作的,为什么这样工作。虽然大部分人工智能是在黑盒中运作的,决策过程是隐藏的,但人工智能的透明度是建立信任和避免误解的关键。

目前有很多研究都在进行帮助鉴别偏见的产生,例如FraunhoferHeinrichHertz研究所开展的工作。他们正在研究识别不同类型的偏见,例如前面提到的偏见,还有一些更“低级”的偏见,以及人工智能训练和发展过程中可能出现的问题。

另外还需要考虑的是无监督训练。目前大多数人工智能模型是通过有监督训练生成的:采集的是明显带有人类选择的标签数据。而对于无监督训练,使用不具任何标签的数据,算法必须要通过自己对数据进行分类、识别和汇集。虽然这种方法通常比有监督学习慢很多数量级,但这种方法限制了人的参与,因此,能够消除任何有意识或者无意识的人为偏见,从而避免对数据产生影响。

在底层也有很多事情可以改进。在开发新产品、网站或者功能时,技术公司需要各方面的人员。多样性会给算法提供各种各样的数据,而这些数据也是有偏见的。如果能有一些人去分析输出结果,那么发现偏见的可能性会更高。

此外,还可以发挥算法审计的作用。2016年,卡耐基梅隆研究小组在网络招聘广告中发现了算法偏见。当他们列出了在网上寻找工作的人员后,谷歌广告显示,男性在高收入工作中所占比例是女性的近六倍。该小组的结论是,进行内部审计将有助于减少这类偏见。

总之,机器偏见来自人的偏见。人工智能的偏见有多种方式的表现,但实际上,它只有一个来源:人类自己。

处理这一问题的关键在于技术公司、工程师和开发人员,他们都应该采取有效的措施来防止无意中创建一种带有偏见的算法。通过进行算法审计并始终保持透明度,就有信心让人工智能算法远离偏见。

声明:本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇