中国人工智能的伦理原则及其治理技术发展
[1] NationalGovernanceCommitteefortheNewGenerationArtificialIntelligence.Governanceprinciplesforthenewgenerationartificialintelligence—developingresponsibleartificialintelligence[Internet].Beijing:ChinaDaily;c1995–2019[updated2019Jun17;cited2019Dec18].Availablefrom:https://www.chinadaily.com.cn/a/201906/17/WS5d07486ba3103dbf14328ab7.html?from=timeline&isappinstalled=0.链接1
[2] BeijingAIprinciples[Internet].Beijing:BeijingAcademyofArtificialIntelligence;c2019[updated2019May28;cited2019Dec18].Availablefrom:https://www.baai.ac.cn/blog/beijing-ai-principles.链接1
[3] ZengY,LuE,HuangfuC.Linkingartificialintelligenceprinciples.2018.arXiv:1812.04814.
[4] YangQ,LiuY,ChenT,TongY.Federatedmachinelearning:conceptandapplications.ACMTransIntellSystTechnol2019;10(2):12.链接1
[5] Guideforarchitecturalframeworkandapplicationoffederatedmachinelearning[Internet].NewYork:IEEEP3652.1FederatedMachineLearningWorkingGroup;c2019[cited2019Dec18].Availablefrom:https://sagroups.ieee.org/3652-1/.链接1
[6] XiaoC,LiB,ZhuJ,HeW,LiuM,SongD.Generatingadversarialexampleswithadversarialnetworks.2018.arXiv:1801.02610.
[7] LiuA,LiuX,FanJ,MaY,ZhangA,XieH,etal.Perceptual-sensitiveGANforgeneratingadversarialpatches.In:Proceedingsofthe33rdAAAIConferenceonArtificialIntelligence;2019Jan27–Feb1;Honolulu,HI,USA;2019.
[8] YanZ,GuoY,ZhangC.Deepdefense:trainingDNNswithimprovedadversarialrobustness.2018.arXiv:1803.00404v3.
[9] PangT,DuC,DongY,ZhuJ.Towardsrobustdetectionofadversarialexamples.2018.arXiv:1706.00633v4.
[10] LingX,JiS,ZouJ,WangJ,WuC,LiB,etal.DEEPSEC:auniformplatformforsecurityanalysisofdeeplearningmodel.In:Proceedingsofthe40thIEEESymposiumonSecurityandPrivacy;2019May20–22;SanFrancisco,CA,USA;2019.
[11] PulinaL,TacchellaA.ChallengingSMTsolverstoverifyneuralnetworks.AICommun2012;25(2):117–35.链接1
[12] KatzG,BarrettC,DillDL,JulianK,KochenderferMJ.Reluplex:anefficientSMTsolverforverifyingdeepneuralnetworks.In:ProceedingsoftheInternationalConferenceonComputerAidedVerification;2017Jul24–28;Heidelberg,Germany;2017.p.97–117.
[13] GehrT,MirmanM,Drachsler-CohenD,TsankovP,ChaudhuriS,VechevM.AI2:safetyandrobustnesscertificationofneuralnetworkswithabstractinterpretation.In:Proceedingsofthe2018IEEESymposiumonSecurityandPrivacy;2018May20–24;SanFrancisco,CA,USA;2018.
[14] SinghG,GehrT,MirmanM,PüschelM,VechevM.Fastandeffectiverobustnesscertification.In:ProceedingsoftheAdvancesinNeuralInformationProcessingSystems31;2018Dec3–8;Montreal,QC,Canada;2018.p.10802–13.
[15] LinW,YangZ,ChenX,ZhaoQ,LiX,LiuZ,etal.Robustnessverificationofclassificationdeepneuralnetworksvialinearprogramming.In:ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition;2019Jun16–20;LongBeach,CA,USA;2019.p.11418–27.
[16] YangP,LiuJ,LiJ,ChenL,HuangX.Analyzingdeepneuralnetworkswithsymbolicpropagation:towardshigherprecisionandfasterverification.2019.arXiv:1902.09866.
[17] RibeiroMT,SinghS,GuestrinC.‘‘WhyshouldItrustyou?”:explainingthepredictionsofanyclassifier.In:Proceedingsofthe22ndACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining;2016Aug13–17;SanFrancisco,CA,USA;2016.p.1135–44.
[18] ZhangQ,YangY,MaH,WuYN.InterpretingCNNsviadecisiontrees.In:ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition;2019Jun16–20;LongBeach,CA,USA;2019.p.6261–70.
[19] LiuS,WangX,LiuM,ZhuJ.Towardsbetteranalysisofmachinelearningmodels:avisualanalyticsperspective.VisualInf2017;1(1):48–56.链接1
[20] MaS,AaferY,XuZ,LeeWC,ZhaiJ,LiuY,etal.LAMP:dataprovenanceforgraphbasedmachinelearningalgorithmsthroughderivativecomputation.In:Proceedingsofthe201711thJointMeetingonFoundationsofSoftwareEngineering;2017Sept4–8;Paderborn,Germany;2017.p.786–97.
[21] XuanX,PengB,DongJ,WangW.OnthegeneralizationofGANimageforensics.2019.arXiv:1902.11153.
[22] GajaneP,PechenizkiyM.Onformalizingfairnessinpredictionwithmachinelearning.2017.arXIv:1710.03184.
[23] KusnerMJ,LoftusJ,RussellC,SilvaR.Counterfactualfairness.2017.arXiv:1703.06856.
[24] BolukbasiT,ChangKW,ZouJ,SaligramaV,KalaiA.Manistocomputerprogrammeraswomanistohomemaker?Debiasingwordembeddings.2016.arXiv:1607.06520.
[25] WengP.Fairnessinreinforcementlearning.2019.arXiv:1907.10323.
[26] BellamyRKE,DeyK,HindM,HoffmanSC,HoudeS,KannanK,etal.AIfairness360:anextensibletoolkitfordetecting,understanding,andmitigatingunwantedalgorithmicbias.2018.arXiv:1810.01943.
[27] High-LevelExpertGrouponAI.EthicsguidelinesfortrustworthyAI[Internet].Brussels:EuropeanCommission;2019Apr8[cited2019Dec18].Availablefrom:https://ec.europa.eu/digital-single-market/en/news/ethics-guidelinestrustworthy-ai.链接1
[28] TrumpDJ.ExecutiveorderonmaintainingAmericanleadershipinartificialintelligence[Internet].Washington,DC:TheWhiteHouse;2019Feb11[cited2019Dec18].Availablefrom:https://www.whitehouse.gov/presidential-actions/executive-order-maintaining-american-leadership-artificialintelligence/.链接1
[29] TencentAILab.Technologicalethicsatintelligentera—reshapetrustworthinessindigitalsociety[Internet].Beijing:TencentResearchInstitute;2019Jul8[cited2019Dec18].Availablefrom:https://tisi.org/10890.Chinese.链接1
[30] MeetthePartners[Internet].SanFrancisco:PartnershiponAI;c2016–18[cited2019Dec18].Availablefrom:https://www.partnershiponai.org/partners/.链接1
[31] LiQ,WenZ,WuZ,HuS,WangN,HeB.Federatedlearningsystems:vision,hypeandrealityfordataprivacyandprotection.2019.arXiv:1907.09693.
[32] SzegedyC,ZarembaW,SutskeverI,BrunaJ,ErhanD,GoodfellowI,etal.Intriguingpropertiesofneuralnetworks.2013.arXiv:1312.6199.
[33] KurakinA,GoodfellowI,BengioS,DongY,LiaoF,LiangM.Adversarialattacksanddefencescompetition.In:EscaleraS,WeimerM,editors.TheNIPS’17competition:buildingintelligentsystems.Cham:Springer;2018.p.195–231.链接1
[34] CaoY,XiaoC,YangD,FangJ,YangR,LiuM,etal.AdversarialobjectsagainstLiDAR-basedautonomousdrivingsystems.2019.arXiv:1907.05418.
[35] AryaV,BellamyRK,ChenPY,DhurandharA,HindM,HoffmanSC,etal.Oneexplanationdoesnotfitall:atoolkitandtaxonomyofAIexplainabilitytechniques.2019.arXiv:1909.03012.
[36] YuH,ShenZ,MiaoC,LeungC,LesserVR,YangQ.Buildingethicsintoartificialintelligence.In:Proceedingsofthe27thInternationalJointConferenceonArtificialIntelligence;2018Jul13–19;Stockholm,Sweden;2018.p.5527–33.链接1
[37] EverittT,KumarR,KrakovnaV,LeggS.ModelingAGIsafetyframeworkswithcausalinfluencediagrams.2019.arXiv:1906.08663.
[38] AwadE,DsouzaS,KimR,SchulzJ,HenrichJ,ShariffA,etal.Themoralmachineexperiment.Nature2018;563(7729):59–64.链接1
[39] ConitzerV,Sinnott-ArmstrongW,BorgJS,DengY,KramerM.Moraldecisionmakingframeworksforartificialintelligence.In:Proceedingsofthe31stAAAIConferenceonArtificialIntelligence;2017Feb4–10;SanFrancisco,CA,USA;2017.p.4831–5.
[40] KimR,Kleiman-WeinerM,AbeliukA,AwadE,DsouzaS,TenenbaumJB,etal.Acomputationalmodelofcommonsensemoraldecisionmaking.In:Proceedingsofthe2018AAAI/ACMConferenceonAI,Ethics,andSociety;2018Feb2–3;NewOrleans,LA,USA;2018.p.197–203.
[41] NationalArtificialIntelligenceStandardizationSteeringCommittee.Reportonartificialintelligenceethicalriskanalysis[Internet].[cited2019Dec18].Availablefrom:http://www.cesi.ac.cn/images/editor/20190425/20190425142632634001.pdf.Chinese.链接1
[42] CrawfordK,CaloR.ThereisablindspotinAIresearch.Nature2016;538(7625):311–3.链接1
全球数治|首份人工智能伦理全球协议的两项关键共识
这里是“全球数治”专栏周报,追踪近期全球数字治理动态
11月24日,联合国教科文组织(UNESCO)在第41届大会上通过了首份关于人工智能伦理的全球协议《人工智能伦理问题建议书》(以下简称《建议书》),供193个成员国采用。《建议书》定义了关于人工智能技术和应用的共同价值观与原则,用以指导建立必需的法律框架,确保人工智能的良性发展,促进该项技术为人类、社会、环境及生态系统服务,并预防潜在风险。
作为引领第四次科技革命的关键技术创新,人工智能给全球社会和经济发展带来了重大而深远的正面影响,例如增加生活便利和民生福祉、提升政府和企业运营效率、帮助应对气候变化和贫困饥饿问题。然而,该项技术同时也带来了前所未有的严峻挑战,包括对个人隐私和尊严的重大威胁,性别和种族偏见加剧,大规模监控风险激增等。
鉴于该项技术在实际应用过程中兼具创造性和破坏性,但却长期缺乏全球通用的治理标准,UNESCO于2018年发起“为世界打造运用人工智能的伦理框架”项目,遴选24名来自世界各国的专家历时三年共同撰写完成《人工智能伦理建议书》,并经过193个成员国之间超过100小时的多边谈判和反复修订,最终于今年11月获得通过。这不仅是全球首个针对人工智能伦理的规则框架和共同纲领,也是当前在世界各国政府层面达成的最广泛共识,为下一步制定规范人工智能发展的具体国际法规和技术标准提供了强有力支撑,堪称多边主义的又一次胜利。
《建议书》所建立的人工智能伦理框架主要由价值观、伦理原则和政策指导三部分组成,文本内容十分全面,注重多方观念和利益的平衡。其中,人工智能的价值观强调:一、尊重、保护和促进人权、基本自由及人的尊严;二、保护环境和生态系统的蓬勃发展;三、确保多样性和包容性;四、在和平、公正与互联的社会中共生。伦理原则主要包含:相称性和不损害、保障安全、公平和非歧视、可持续性、隐私权和数据保护、人类监督和决定、透明度和可解释性、责任与问责、技术认知和素养、多利益攸关方协同治理等10方面。政策指导则涉及伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉、监测与评估共12个细分领域。同时,《建议书》鼓励所有成员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测应用该技术带来的影响。
在全面考虑和广泛涵盖的基础上,《建议书》最为核心的内容集中于呼吁各国采取数据保护行动、禁止社会评分和大规模监控、监测和评估人工智能系统的社会及环境影响等。并且,《建议书》在这些问题上没有一味遵从西方人工智能技术先发国家的既有标准,而是通过编撰过程中的区域性专家咨询会、政府间专家磋商、各成员国意见征集等环节来广泛听取和采纳中国等发展中国家的意见和建议,努力平衡价值差异,推动形成多边共识。其中,有两项共识尤为关键。
首先,《建议书》将“可持续发展”确定为全球人工智能发展的总体愿景和重要途径,主张发展人工智能技术和应用都以有利于实现可持续发展目标为优先导向,且需要密切关注和防范阻碍该目标实现的各类风险。同时,《建议书》不囿于应当“发展先行”还是“治理先行”的争论,强调两者相互协同,使人工智能系统在整个生命周期内都可以赋能人类、社会、生态之间的和谐共生。
其次,在人工智能伦理和治理范式创新方面,《建议书》倡导“协同共治”的路径选择。《建议书》强调,诸如人脸识别、自动化决策、社会评分等人工智能应用带来的伦理挑战不可能仅通过禁止使用来解决问题,而是要将基于多边共识的伦理标准贯穿于人工智能系统设计、研发、部署、使用的全部过程,并适配相应的治理规则和手段,实现防患于未然。与此同时,人工智能治理单靠政府或政府间合作并不能有效实现,而是要依靠整个技术生态系统中的多方深度协同。政府、企业、研发、用户、学术界、媒体等利益相关方都需要担负起相应责任,开展全流程协同共治。
UNESCO通过相对平等而广泛的公共讨论促成了《建议书》及首个全球人工智能伦理框架的确立。这不仅凝聚了全世界193个国家对这项新兴技术的可持续发展共识,也进一步打开了未来多边协同治理的新前景。下一步,还需要将其中的价值观、原则和政策加以落地,推动各国形成可执行的标准和细则,将理念化为行动,使理想融入现实。
规则
美欧启动联合应对技术竞争政策对话
12月7日,欧盟委员会执行副主席玛格丽特·维斯塔格、美国联邦贸易委员会主席莉娜·汗和美国司法部反垄断助理总检察长乔纳森·坎特在华盛顿启动了美欧联合应对技术竞争政策对话并发表联合声明,以加强双方在快速发展的技术领域内的政策协调和共同执法。声明指出,美欧坚持共同的民主价值观和对良性市场竞争的信念,在数字竞争执法领域面临网络效应、海量数据、互操作性等共同挑战。因此,美欧将在政策和执法方面进一步加强协调。(来源:欧盟委员会官网)
英国发布算法透明度的开创性标准
11月29日,英国中央数字办公室(CDDO)发布了算法透明度标准,旨在为政府部门和公共机构提供用于支持决策的算法工具的明确信息,兑现其在国家数据战略和国家人工智能战略中做出的承诺。算法透明度标准涵盖透明度数据标准,透明度模板和行动指南等,将有助于帮助组织提高算法工具的透明性。(来源:英国政府官网)
缅甸罗兴亚难民因暴力事件起诉Facebook,要求赔偿1500亿美元
12月6日,缅甸的一个罗兴亚难民团体在美国提起一项集体诉讼,指控社交媒体平台Facebook促进了针对受迫害的少数群体的暴力,要求Facebook赔偿1500亿美元。Facebook表示,虽然以前没有及时防止错误信息和仇恨言论传播,但事后已采取补救措施,包括在2月1日缅甸政变后禁止军方使用Facebook和Instagram。Facebook曾表示,它受到美国互联网法“第230条”的保护,免于对用户发布的内容承担责任。罗兴亚难民团体则表示,如果Facebook提出“第230条”作为抗辩理由,他们将寻求通过缅甸法律进行索赔。(来源:路透社)
政策
美国防部拟重组三个关键技术办公室
12月1日,美国防部宣布将把国防部数字服务局、联合人工智能中心及首席数据官办公室重组为首席数据与人工智能官办公室,以简化流程,并为使用人工智能与数据创造出更具凝聚力的方法。根据拟议计划,三个办公室仍保持独立,但都向新办公室报告。此举将为三个办公室提供更清晰的组织结构,帮助其掌握更多数据并应用于人工智能,进而推动联合全域指挥控制工作。(来源:美国外交关系协会)
工信部预测2025年中国大数据产业规模将突破3万亿元
11月30日,国家工信部召开新闻发布会,介绍《“十四五”大数据产业发展规划》相关情况。《规划》提出,到2025年,我国大数据产业规模预计将突破3万亿元,年均复合增长率保持25%左右,创新力强、附加值高、自主可控的现代化大数据产业体系基本形成。《规划》就加快培育数据要素市场、发挥大数据特性优势、夯实产业发展基础、构建稳定高效产业链、打造繁荣有序产业生态、筑牢数据安全保障防线等六个方面设定了重点任务,并安排了数据治理能力提升、重点标准研制及应用推广、工业大数据价值提升、行业大数据开发利用、企业主体发展能级跃升、数据安全铸盾共六个专项行动。此外,《规划》还提出加快构建全国一体化大数据中心体系,推进国家工业互联网大数据中心建设,引导大中小企业融通发展和产业链上下游协同创新,支持传统企业开展大数据业务剥离重组。(来源:中国政府网)
监管
美国联邦贸易委员会对英伟达公司收购ARM的交易提起诉讼
12月2日,美国联邦贸易委员会(FTC)宣布,已经以反垄断为由提起诉讼,旨在阻止英伟达公司以400亿美元价格收购ARM的计划。FTC认为,这笔交易将会扼杀云计算、数据中心和自动驾驶汽车等各种技术的市场创新,并将“不公平地削弱”英伟达的竞争对手。这起诉讼是英伟达收购ARM交易在监管方面遭遇的又一次打击。此前,英国政府和欧盟委员会已经开始对该笔交易展开深入的反垄断调查。(来源:路透社)
产业与技术
Meta与亚马逊AWS达成云服务合作协议
12月1日,Meta公司宣布与亚马逊公司云服务部门(AWS)达成合作,将AWS作为其长期战略云服务提供商,扩大对AWS计算、存储、数据库和安全服务的使用范围,以补充Meta现有的本地基础设施。Meta还将使用AWS的计算服务来加速其AI团队的研发工作,并将在AWS平台上运行第三方合作应用。(来源:亚马逊官网)
城市数字化
国务院发文支持北京城市副中心大力发展数字经济,推进智慧城市建设
11月26日,国务院发布关于支持北京城市副中心高质量发展的意见。意见提出,到2025年,城市副中心绿色城市、森林城市、海绵城市、智慧城市、人文城市、宜居城市功能将基本形成。意见明确,强化科技创新引领,聚焦新一代信息技术、智能制造等领域,实施一批国家重大科技项目和应用示范项目,引导创新链、产业链在城市副中心及周边地区布局,大力发展数字经济。围绕第五代移动通信(5G)网络、人工智能、云计算、大数据、互联网协议第6版(IPv6)等加紧布局数字新基建,在智慧城市、数字乡村建设等领域建成一批示范应用新场景,支持开展科技应用场景沙盒试点。(来源:中国政府网)
美国巴尔的摩市计划建设普惠智能网络以缩小数字鸿沟
11月30日,美国巴尔的摩市长办公室宣布,将拨款3500万美元为受公共卫生紧急情况影响最严重的社区和居民提供网络接入方面的救济。其中,首笔600万美元将用于大幅扩大公共互联网接入,以缩小城市中的数字鸿沟。鉴于互联网接入已成为最为关键和基本的公共基础设施,实现网络接入公平成为未来智慧城市的关键内涵之一。巴尔的摩市计划在未来十年间持续投资于在全市范围内建设开放、普惠的智能网络基础设施,以确保每位市民都能平等、便捷的接入互联网。(来源:巴尔的摩市政府官网)
中国社会科学杂志社
当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。
技术伦理风险
技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。
人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。
人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。
人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。
社会伦理挑战
人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。
人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。
人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。
应对防范策略
技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。
确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。
建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。
健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。
(作者单位:南京大学哲学系)
郭锐:人工智能的伦理问题与治理原则
图片来源:摄图网
人工智能伦理在公众讨论中最有名的雏形,来自科幻小说作者阿西莫夫提出的机器人三定律。今天我们知道,阿西莫夫机器人三定律并不能一劳永逸地建立对人工智能的合理约束,但它的真正价值是提出了一个可能性。这个可能性就是我们所创造的技术——在处理某些问题上比我们要迅速,在机械、物理力量上要比我们强的“自主”决策主体——不仅不会伤害人类,反而能够造福人类社会。三定律所要处理的核心问题是人的主体性问题,这也是探讨人工智能伦理和治理的核心问题。关于人工智能伦理和治理,无论是算法决策相关的问题、数据与隐私相关的问题和社会影响相关的问题,都关涉人的主体性问题。
从人工智能现有能力/技术潜力与它给人类社会带来的负面后果的角度来看,会产生两大类问题:1.人工智能被委以对人类事务做决策的能力,但它对决策结果的伦理判断能力不足;2.人类缺乏引导人工智能发挥作用的终极伦理准则。
第一类问题来自我们对人工智能系统对其决策结果的伦理意义缺乏判断的忧虑。人工智能往往被用来解决一个具体问题,而且只能通过已有的有限数据来作出决策,往往无法像人一样理解更广的社会和伦理语境。故此,我们对人工智能缺乏对决策后果的伦理意义的认知有恐惧,这是完全可以理解的。当人工智能决策的后果涉及一个结果和另外一个结果之间的比较时,往往造成难以预料的后果。例如,人可能给人工智能系统一个获取食物的指令,结果这个系统却杀死了人的宠物。这是因为人工智能对某个结果的伦理意义无法完全理解,以致于错误地执行了指令。我们对人工智能对决策结果的伦理判断能力不足的忧虑,在人工智能技术本身缺乏透明度(黑箱问题)时就更加严重了。人工智能采纳的机器学习往往因为算法(例如机器学习)和算力限制的原因,无法回溯机器作出决定的具体机制。无法回溯会带来我们在事先预测后果和事后作出纠正的能力的局限,导致我们在决定是否应用人工智能技术的问题上踌躇不决。
第二类问题来自我们对人工智能的潜力的忧虑。人工智能可能成为人类全部决定的参与和影响者,但我们尚且不知道没有任何已知的伦理准则能指引上述行为。人类创造的“上帝”无力护理这个世界,这让我们恐惧震惊。我们担心随着人工智能的发展,它会导致已有的社会问题进一步恶化,同时可能带来新的社会问题。
从上述前提出发,笔者从目的、手段两个层面提出思考人工智能伦理(嵌入机器的伦理)的两个基本方向:技术必须促进人类的善(体现在人的根本利益原则);在越来越发达的机器的自主性背景下确认人的主体性(体现在责任原则)。换言之,认识到新的技术本身的特征和它的潜在社会影响,我们看到人工智能伦理要强调:(1)人可以利用人工智能得到更大的能力(行善/伤害),因此有更大的责任,所以应当更加强调归责性;(2)人工智能则必须服从人类设定的伦理规则。这也是《人工智能标准化白皮书(2018)》中提出了人工智能设计和应用中应遵循的两个基本原则的基本依据。违反人的根本利益原则的人工智能,无论是用来欺诈顾客的营销算法、用于司法造成歧视部分公民的司法决策系统,还是对个人信息的过度收集和滥用,都违反人工智能伦理原则。
图片来源:摄图网
根据人工智能伦理风险的具体性质与特征,可从算法、数据和应用三个方面度来梳理人工智能的风险。对伦理风险的治理,需要立法和政策明确各相关主体的责任,包括信息提供者、信息处理者和系统协调者。此外,人工智能还可能对社会产生远期发展的风险,如对既有的就业、市场竞争秩序、产权等法律制度的挑战,甚至生产方式的根本变革,这些我们将其归入长期和间接的伦理风险之中。
算法方面
算法方面的风险主要包括算法安全问题、算法可解释性问题、算法歧视问题和算法决策困境问题。算法安全问题产生于算法漏洞被黑客攻击和恶意利用的挑战,同时算法从设计、训练到使用中面临可信赖性问题和算法随时可用对可靠性带来挑战。
算法可解释性涉及人类的知情利益和主体地位,对人工智能的长远发展意义重大。国务院颁布《新一代人工智能发展规划》,同时,潘云鹤院士提到人工智能应用的一个需要关注的问题是算法的不可解释性。算法可解释性问题在国外也引起媒体和公众的关注。例如,电气和电子工程师协会(IEEE)在2016年和2017年连续推出的《人工智能设计的伦理准则》白皮书,在多个部分都提出了对人工智能和自动化系统应有解释能力的要求。美国计算机协会美国公共政策委员会在2017年年初发布了《算法透明性和可问责性声明》,提出了七项基本原则,其中一项即为“解释”,希望鼓励使用算法决策的系统和机构,对算法的过程和特定的决策提供解释。2017年,美国加州大学伯克利分校发布了《对人工智能系统挑战的伯克利观点》,从人工智能的发展趋势出发,总结了九项挑战和研究方向。其中之一,即第三项,就是要发展可解释的决策,使人们可以识别人工智能算法输入的哪些特性引起了某个特定的输出结果。
与可解释性问题常常同时出现的是算法歧视问题,即在看似中立的算法中,由于算法的设计者的认知存在某种偏见,或者训练算法使用了有问题的数据集等原因,带来了人工智能系统决策出现带有歧视性的结果。这类例子媒体时有报道,例如在金融领域“降低弱势群体的信贷得分”、“拒绝向‘有色人种’贷款”、“广告商更倾向于将高息贷款信息向低收入群体展示”等。
算法歧视主要分为“人为造成的歧视”“数据驱动的歧视”与“机器自我学习造成的歧视”三类。人为造成的歧视,是指由于人为原因而使算法将歧视或偏见引入决策过程中。数据驱动造成的歧视,是指由于原始训练数据存在偏见性,而导致算法执行时将歧视带入决策过程中。算法本身不会质疑其所接收到的数据,只是单纯地寻找、挖掘数据背后隐含的模式或者结构。如果数据一开始就存在某种选择上的偏见或喜好,那么算法会获得类似于人类偏见的输出结果。机器自我学习造成的歧视,是指机器在学习的过程中会自我学习到数据的多维不同特征,即便不是人为地赋予数据集某些特征,或者程序员或科学家刻意避免输入一些敏感的数据,但是机器在自我学习的过程中,仍然会学习到输入数据的其它特征,从而将某些偏见引入到决策过程中,这就是机器自我学习造成的歧视。
算法决策困境源于人工智能自学习能力导致的算法结果的不可预见性。为此要减少或杜绝算法决策困境,除了提高算法的可解释性,还可以引入相应的算法终结机制。
图片来源:摄图网
数据方面
数据方面的风险主要包括侵犯隐私的风险和个人敏感信息识别与保护的风险。在现代社会,隐私保护是信任和个人自由的根本,同时也是人工智能时代维持文明与尊严的基本方式。人工智能时代下侵犯隐私的风险更大,受害者也更多。
传统法律规范对隐私的保护集中于对个人在私人领域、私人空间活动的保护,以及个人私密的、非公开的信息保护。在个人信息的基础之上,法律规范区分普通个人信息和个人敏感信息。法律通常对个人敏感信息予以更高的保护,例如对个人敏感信息的处理需要基于个人信息主体的明示同意,或重大合法利益或公共利益的需要等,严格限制对个人敏感信息的自动化处理,并要求对其进行加密存储或采取更为严格的访问控制等安全保护措施。个人敏感信息在授权同意范围外扩散,或者个人信息的扩散超出收集、使用个人信息的组织和机构控制范围,以及使用者超出授权使用(如变更处理目的、扩大处理范围等),都可能对个人信息主体权益带来重大风险。
人工智能技术的应用极大地扩展了个人信息收集的场景、范围和数量。图像识别、语音识别、语义理解等人工智能技术实现海量非结构化数据的采集,而人工智能与物联网设备的结合丰富了线下数据采集的场景。例如,家用机器人、智能冰箱、智能音箱等各种智能家居设备走进人们的客厅、卧室,实时地收集人们的生活习惯、消费偏好、语音交互、视频影像等信息;各类智能助手在为用户提供更加便捷服务的同时,也在全方位地获取和分析用户的浏览、搜索、位置、行程、邮件、语音交互等信息;支持面部识别的监控摄像头,可以在公共场合且个人毫不知情的情况下,识别个人身份并实现对个人的持续跟踪。这些都需要法律进一步地规范。
图片来源:摄图网
社会方面
与社会相关的伦理问题主要包括算法滥用和误用。算法滥用和误用是指人们利用算法进行分析、决策、协调、组织等一系列活动中,其使用目的、使用方式、使用范围等出现偏差并引发不良影响或不利后果的情况。例如,人脸识别算法能够提高治安水平、加快发现犯罪嫌疑人的速度等,但是如果把人脸识别算法应用于发现潜在犯罪人或者根据脸型判别某人是否存在犯罪潜质,就属于典型的算法滥用。由于人工智能系统的自动化属性,算法滥用将放大算法所产生的错误效果,并不断强化成为一个系统的重要特征。
算法滥用主要由算法设计者出于经济利益或者其他动机的操纵行为、平台和使用者过度依赖算法、将算法的应用盲目拓展到算法设计未曾考虑的领域等。电商平台算法设计者推荐不符合用户利益的产品,或者娱乐平台为了自身的商业利益对用户的娱乐或信息消费行为进行诱导、导致用户沉迷等,都是算法设计者操纵行为的展现。在医疗领域过度依赖人工智能平台的读图诊断,导致误诊,以及在安防领域和犯罪误判导致的问题,都直接关系到公民的人身安全与自由。
应当注意的是,与社会相关的伦理问题有如下特性:其一,它们与个人切身利益密切相关,如算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,对个人切身利益的影响广泛。其二,它们带来的问题通常难以短时间应对,例如深度学习是一个典型的“黑箱”算法,如果深度学习为基础建立的模型存在歧视,应对时难以查清原因。其三,在商业应用中出现这类问题时,由于资本的逐利性,公众权益容易受到侵害。
2
人工智能治理原则与实践
人工智能技术的特质及其伦理挑战,给社会的治理带来了问题。传统上,治理所预设能够遵循规则的主体(Agent),也就是人本身。今天我们认识到人工智能的特征在于其高度的自主性,即其决策不再需要操控者进一步的指令,考虑到这种决策可能会产生人类预料不到的结果,人工智能技术的设计者和应用者必须在人工智能技术研发、应用的各个环节贯彻伦理原则,以实现对人工智能的有效治理。
在传统技术领域,常见的防止损害的方式是在造成伤害之后进行干预。但是,等待人工智能系统造成伤害之时才考虑干预,很多时候为时已晚。一个更好的方法是将即时和持续的伦理风险评估和合规体系建设作为系统运行的一个组成部分,即时和持续评估人工智能系统是否存在伦理风险、并在损害产生之前以及损害不大的时候就通过合规体系进行处理。即时和持续的风险评估对于人工智能系统的保障要比按下“紧急按钮”要有效得多。
故此,我们在讨论人工智能治理应遵循的思路和逻辑时,必须警醒行业自律的有限性和立法的滞后性。如阿西莫夫等科技伦理的思想者所意识到的,必须将伦理在技术层面就进行明确,才能保证治理的有效性。构建人工智能的伦理标准是治理不可或缺的一面。此外,根据法律和政策本身的特征来制定法律、完善政策、设立管制机构,也是治理必须执行的方法。
图片来源:摄图网
国内外人工智能治理方面的探索值得我们关注和借鉴。例如,欧盟通过对机器人规制体现了依据人工智能伦理来设计治理体系的前沿探索。美国于2016年出台的战略文件就提出要理解并解决人工智能的伦理、法律和社会影响。英国政府曾在其发布的多份人工智能报告中提出应对人工智能的法律、伦理和社会影响,最为典型的是英国议会于2018年4月发出的长达180页的报告《英国人工智能发展的计划、能力与志向》。
联合国于2017年9月发布《机器人伦理报告》,建议制定国家和国际层面的伦理准则。电气和电子工程师协会(InstituteofElectricalandElectronicsEngineers,IEEE)于2016年启动“关于自主/智能系统伦理的全球倡议”,并开始组织人工智能设计的伦理准则。在未来生命研究所(futureoflifeinstitute,FLI)主持下,近4000名各界专家签署支持23条人工智能基本原则。
我国也在这个方面开展了探索与实践。2017年发布的《新一代人工智能发展规划》提出了中国的人工智能战略,制定促进人工智能发展的法律法规和伦理规范作为重要的保证措施被提了出来。2018年1月18日,在国家人工智能标准化总体组、专家咨询组的成立大会上发布了《人工智能标准化白皮书(2018)》。白皮书论述了人工智能的安全、伦理和隐私问题,认为设定人工智能技术的伦理要求,要依托于社会和公众对人工智能伦理的深入思考和广泛共识,并遵循一些共识原则。
人工智能技术的开发和应用深刻地改变着人类的生活,不可避免地会冲击现有的伦理与社会秩序,引发一系列问题。这些问题可能表现为直观的短期风险,如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制定等,也可能相对间接和长期,如对产权、竞争、就业甚至社会结构的影响。尽管短期风险更具体可感,但长期风险所带来的社会影响更为广泛而深远,同样应予重视。
人工智能技术的日新月异与治理体系相对稳定性之间不可避免地存在矛盾,这需要我们明确应对人工智能的基本原则。在国际范围内比较,人工智能伦理基本原则以2017年1月在阿西洛马召开的“有益的人工智能”(BeneficialAI)会议提出的“阿西洛马人工智能原则”(AsilomarAIPrinciples),以及电气和电子工程师协会(IEEE)组织开展的人工智能伦理标准的工作受到了最多的关注。此前,各国也提出了机器人原则与伦理标准。作者认为,我国人工智能的研究和应用应遵循两个人工智能伦理基本原则,即人的根本利益原则和责任原则。
图片来源:摄图网
人的根本利益原则(ThePrincipleofFundamentalInterestsofHumanPerson)
人的根本利益原则,即人工智能应以实现人的根本利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。人的根本利益原则要求:
(1)在对社会的影响方面,人工智能的研发与应用以促进人类向善为目的(AIforgood),这也包括和平利用人工智能及相关技术,避免致命性人工智能武器的军备竞赛。
(2)在人工智能算法方面,人工智能的研发与应用应符合人的尊严,保障人的基本权利与自由;确保算法决策的透明性,确保算法设定避免歧视;推动人工智能的效益在世界范围内公平分配,缩小数字鸿沟。
(3)在数据使用方面,人工智能的研发与应用要关注隐私保护,加强个人数据的控制,防止数据滥用。
责任原则(ThePrincipleofResponsibility)
责任原则,即在人工智能相关的技术开发和应用两方面都建立明确的责任体系,以便在人工智能应用结果导致人类伦理或法律的冲突问题时,人们能够从技术层面对人工智能技术开发人员或设计部门问责,并在人工智能应用层面建立合理的责任体系。在责任原则下,在人工智能技术开发方面应遵循透明度原则;在人工智能技术应用方面则应当遵循权责一致原则。
透明度原则
透明度原则要求人工智能的设计中,保证人类了解自主决策系统的工作原理,从而预测其输出结果,即人类应当知道人工智能如何以及为何做出特定决定。透明度原则的实现有赖于人工智能算法的可解释性(explicability)、可验证性(verifiability)和可预测性(predictability)。
图片来源:摄图网
权责一致原则
权责一致原则,是指在人工智能的设计和应用中应当保证问责的实现,这包括:在人工智能的设计和使用中留存相关的算法、数据和决策的准确记录,以便在产生损害结果时能够进行审查并查明责任归属。权责一致原则的实现需要建立人工智能算法的公共审查制度。公共审查能提高相关政府、科研和商业机构采纳的人工智能算法被纠错的可能性。合理的公共审查能够保证一方面必要的商业数据应被合理记录、相应算法应受到监督、商业应用应受到合理审查,另一方面商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的利益。
应当明确,我们所说的人工智能伦理原则,不仅应当由人工智能系统的研发和应用的人类主体遵守(包括在研究机构、行业领域的科技企业和科技工作者),而且这些原则应当嵌入人工智能系统本身。机器如何遵循伦理规则这一点,有人仍有质疑。典型的看法是,伦理规则只是给人的,没有可能给人工智能系统(包括机器人)设定伦理规则。的确,传统上伦理原则所针对的是能够遵循这些原则的主体(Agent)也就是人本身。但是,考虑到人工智能的特征在于机器对人的智能的“模拟、延伸和扩展”,即其决策不需要操控者一步步的指令,同时这种决策可能会产生人类预料不到的结果,人工智能系统也应当受到伦理规则的规制。
3
结论
社会必须信任人工智能技术能够给人带来的利益大于伤害,才有可能支持继续发展人工智能。而这种信任,需要我们认识和探讨人工智能领域的伦理和治理问题,并且在发展人工智能技术发展的早期就有意识地加以运用。今天学者、科技工作者和社会已经有基本共识,就是负责人工智能系统的研发和应用的人类主体,包括在研究机构、行业领域的科技企业和科技工作者,应当服从一些基本的伦理原则。本文提出的两个基本伦理原则,是国内在这方面思考的总结和升华。除了人工智能的基本伦理原则,前人给我们的另一个启发是人工智能伦理应该嵌入系统本身。当我们越来越依赖于机器人代替我们作出决策时,我们应当在这个决策过程中嵌入伦理思考,而不是等待决策结果已经给我们带来负面影响之后再去纠正。
本文希望用一种更清醒的眼光去看待人工智能伦理和治理问题。学者和公众需要一起探讨:我们有没有可能防止人工智能给个人和社会带来的损害?只有在这个问题得到更深入的思考和妥善解决的时候,人工智能的发展才有真正的基础。
本文转载自:法理杂志(ID:ratiojuris)
✕
✕
✕
✕返回搜狐,查看更多
个人信息泄露、信息鸿沟、信息茧房…丨人工智能伦理问题的现状分析与对策
原标题《人工智能伦理问题的现状分析与对策》
张兆翔1张吉豫2谭铁牛1*
1中国科学院自动化研究所
2中国人民大学法学院
1
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。
人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。
信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。
然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人Moore将伦理智能体分为4类:
1.伦理影响智能体(对社会和环境产生伦理影响);
2.隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);
3.显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);
4.完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。
当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。
近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。
例如:
1.人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。
2.人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。
3.人工智能的滥用可能威胁公民隐私权、个人信息权。
4.深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。
5.信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。
6.人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。
7.算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。
8.人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。
9.由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。
10.人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。
1.人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。
2.人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
2
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。
近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。
一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。
另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。
我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
3
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。
为更好地支撑人工智能发展和治理,应从4个方面进行完善:
1.普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;
2.在科技工作者中加强人工智能伦理教育和职业伦理培训;
3.为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;
4.研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。
当前有5项重点工作可以开展:
1.针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。
2.在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。
3.推动科研机构和企业对人工智能伦理风险的认知和实践。
4.充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。
5.推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
背景
人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
张兆翔中国科学院自动化研究所研究员。研究方向为生物认知启发的视觉感知与理解、类人学习、类脑智能等。
谭铁牛中国科学院院士,英国皇家工程院外籍院士,发展中国家科学院院士和巴西科学院通讯院士。中国科学院自动化研究所智能感知与计算研究中心主任、研究员。研究方向为生物特征识别、图像视频理解和信息内容安全。
文章源自:
张兆翔,张吉豫,谭铁牛.人工智能伦理问题的现状分析与对策.中国科学院院刊,2021,36(11):1270-1277.
总监制:杨柳春
责任编辑:张帆
助理编辑、校对:PAN
排版:立夏