博舍

全球数治|首份人工智能伦理全球协议的两项关键共识 人工智能伦理框架包括哪些内容和方法呢

全球数治|首份人工智能伦理全球协议的两项关键共识

这里是“全球数治”专栏周报,追踪近期全球数字治理动态

11月24日,联合国教科文组织(UNESCO)在第41届大会上通过了首份关于人工智能伦理的全球协议《人工智能伦理问题建议书》(以下简称《建议书》),供193个成员国采用。《建议书》定义了关于人工智能技术和应用的共同价值观与原则,用以指导建立必需的法律框架,确保人工智能的良性发展,促进该项技术为人类、社会、环境及生态系统服务,并预防潜在风险。

作为引领第四次科技革命的关键技术创新,人工智能给全球社会和经济发展带来了重大而深远的正面影响,例如增加生活便利和民生福祉、提升政府和企业运营效率、帮助应对气候变化和贫困饥饿问题。然而,该项技术同时也带来了前所未有的严峻挑战,包括对个人隐私和尊严的重大威胁,性别和种族偏见加剧,大规模监控风险激增等。

鉴于该项技术在实际应用过程中兼具创造性和破坏性,但却长期缺乏全球通用的治理标准,UNESCO于2018年发起“为世界打造运用人工智能的伦理框架”项目,遴选24名来自世界各国的专家历时三年共同撰写完成《人工智能伦理建议书》,并经过193个成员国之间超过100小时的多边谈判和反复修订,最终于今年11月获得通过。这不仅是全球首个针对人工智能伦理的规则框架和共同纲领,也是当前在世界各国政府层面达成的最广泛共识,为下一步制定规范人工智能发展的具体国际法规和技术标准提供了强有力支撑,堪称多边主义的又一次胜利。

《建议书》所建立的人工智能伦理框架主要由价值观、伦理原则和政策指导三部分组成,文本内容十分全面,注重多方观念和利益的平衡。其中,人工智能的价值观强调:一、尊重、保护和促进人权、基本自由及人的尊严;二、保护环境和生态系统的蓬勃发展;三、确保多样性和包容性;四、在和平、公正与互联的社会中共生。伦理原则主要包含:相称性和不损害、保障安全、公平和非歧视、可持续性、隐私权和数据保护、人类监督和决定、透明度和可解释性、责任与问责、技术认知和素养、多利益攸关方协同治理等10方面。政策指导则涉及伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉、监测与评估共12个细分领域。同时,《建议书》鼓励所有成员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测应用该技术带来的影响。

在全面考虑和广泛涵盖的基础上,《建议书》最为核心的内容集中于呼吁各国采取数据保护行动、禁止社会评分和大规模监控、监测和评估人工智能系统的社会及环境影响等。并且,《建议书》在这些问题上没有一味遵从西方人工智能技术先发国家的既有标准,而是通过编撰过程中的区域性专家咨询会、政府间专家磋商、各成员国意见征集等环节来广泛听取和采纳中国等发展中国家的意见和建议,努力平衡价值差异,推动形成多边共识。其中,有两项共识尤为关键。

首先,《建议书》将“可持续发展”确定为全球人工智能发展的总体愿景和重要途径,主张发展人工智能技术和应用都以有利于实现可持续发展目标为优先导向,且需要密切关注和防范阻碍该目标实现的各类风险。同时,《建议书》不囿于应当“发展先行”还是“治理先行”的争论,强调两者相互协同,使人工智能系统在整个生命周期内都可以赋能人类、社会、生态之间的和谐共生。

其次,在人工智能伦理和治理范式创新方面,《建议书》倡导“协同共治”的路径选择。《建议书》强调,诸如人脸识别、自动化决策、社会评分等人工智能应用带来的伦理挑战不可能仅通过禁止使用来解决问题,而是要将基于多边共识的伦理标准贯穿于人工智能系统设计、研发、部署、使用的全部过程,并适配相应的治理规则和手段,实现防患于未然。与此同时,人工智能治理单靠政府或政府间合作并不能有效实现,而是要依靠整个技术生态系统中的多方深度协同。政府、企业、研发、用户、学术界、媒体等利益相关方都需要担负起相应责任,开展全流程协同共治。

UNESCO通过相对平等而广泛的公共讨论促成了《建议书》及首个全球人工智能伦理框架的确立。这不仅凝聚了全世界193个国家对这项新兴技术的可持续发展共识,也进一步打开了未来多边协同治理的新前景。下一步,还需要将其中的价值观、原则和政策加以落地,推动各国形成可执行的标准和细则,将理念化为行动,使理想融入现实。

规则

美欧启动联合应对技术竞争政策对话

12月7日,欧盟委员会执行副主席玛格丽特·维斯塔格、美国联邦贸易委员会主席莉娜·汗和美国司法部反垄断助理总检察长乔纳森·坎特在华盛顿启动了美欧联合应对技术竞争政策对话并发表联合声明,以加强双方在快速发展的技术领域内的政策协调和共同执法。声明指出,美欧坚持共同的民主价值观和对良性市场竞争的信念,在数字竞争执法领域面临网络效应、海量数据、互操作性等共同挑战。因此,美欧将在政策和执法方面进一步加强协调。(来源:欧盟委员会官网)

英国发布算法透明度的开创性标准

11月29日,英国中央数字办公室(CDDO)发布了算法透明度标准,旨在为政府部门和公共机构提供用于支持决策的算法工具的明确信息,兑现其在国家数据战略和国家人工智能战略中做出的承诺。算法透明度标准涵盖透明度数据标准,透明度模板和行动指南等,将有助于帮助组织提高算法工具的透明性。(来源:英国政府官网)

缅甸罗兴亚难民因暴力事件起诉Facebook,要求赔偿1500亿美元

12月6日,缅甸的一个罗兴亚难民团体在美国提起一项集体诉讼,指控社交媒体平台Facebook促进了针对受迫害的少数群体的暴力,要求Facebook赔偿1500亿美元。Facebook表示,虽然以前没有及时防止错误信息和仇恨言论传播,但事后已采取补救措施,包括在2月1日缅甸政变后禁止军方使用Facebook和Instagram。Facebook曾表示,它受到美国互联网法“第230条”的保护,免于对用户发布的内容承担责任。罗兴亚难民团体则表示,如果Facebook提出“第230条”作为抗辩理由,他们将寻求通过缅甸法律进行索赔。(来源:路透社)

政策

美国防部拟重组三个关键技术办公室

12月1日,美国防部宣布将把国防部数字服务局、联合人工智能中心及首席数据官办公室重组为首席数据与人工智能官办公室,以简化流程,并为使用人工智能与数据创造出更具凝聚力的方法。根据拟议计划,三个办公室仍保持独立,但都向新办公室报告。此举将为三个办公室提供更清晰的组织结构,帮助其掌握更多数据并应用于人工智能,进而推动联合全域指挥控制工作。(来源:美国外交关系协会)

工信部预测2025年中国大数据产业规模将突破3万亿元

11月30日,国家工信部召开新闻发布会,介绍《“十四五”大数据产业发展规划》相关情况。《规划》提出,到2025年,我国大数据产业规模预计将突破3万亿元,年均复合增长率保持25%左右,创新力强、附加值高、自主可控的现代化大数据产业体系基本形成。《规划》就加快培育数据要素市场、发挥大数据特性优势、夯实产业发展基础、构建稳定高效产业链、打造繁荣有序产业生态、筑牢数据安全保障防线等六个方面设定了重点任务,并安排了数据治理能力提升、重点标准研制及应用推广、工业大数据价值提升、行业大数据开发利用、企业主体发展能级跃升、数据安全铸盾共六个专项行动。此外,《规划》还提出加快构建全国一体化大数据中心体系,推进国家工业互联网大数据中心建设,引导大中小企业融通发展和产业链上下游协同创新,支持传统企业开展大数据业务剥离重组。(来源:中国政府网)

监管

美国联邦贸易委员会对英伟达公司收购ARM的交易提起诉讼

12月2日,美国联邦贸易委员会(FTC)宣布,已经以反垄断为由提起诉讼,旨在阻止英伟达公司以400亿美元价格收购ARM的计划。FTC认为,这笔交易将会扼杀云计算、数据中心和自动驾驶汽车等各种技术的市场创新,并将“不公平地削弱”英伟达的竞争对手。这起诉讼是英伟达收购ARM交易在监管方面遭遇的又一次打击。此前,英国政府和欧盟委员会已经开始对该笔交易展开深入的反垄断调查。(来源:路透社)

产业与技术

Meta与亚马逊AWS达成云服务合作协议

12月1日,Meta公司宣布与亚马逊公司云服务部门(AWS)达成合作,将AWS作为其长期战略云服务提供商,扩大对AWS计算、存储、数据库和安全服务的使用范围,以补充Meta现有的本地基础设施。Meta还将使用AWS的计算服务来加速其AI团队的研发工作,并将在AWS平台上运行第三方合作应用。(来源:亚马逊官网)

城市数字化

国务院发文支持北京城市副中心大力发展数字经济,推进智慧城市建设 

11月26日,国务院发布关于支持北京城市副中心高质量发展的意见。意见提出,到2025年,城市副中心绿色城市、森林城市、海绵城市、智慧城市、人文城市、宜居城市功能将基本形成。意见明确,强化科技创新引领,聚焦新一代信息技术、智能制造等领域,实施一批国家重大科技项目和应用示范项目,引导创新链、产业链在城市副中心及周边地区布局,大力发展数字经济。围绕第五代移动通信(5G)网络、人工智能、云计算、大数据、互联网协议第6版(IPv6)等加紧布局数字新基建,在智慧城市、数字乡村建设等领域建成一批示范应用新场景,支持开展科技应用场景沙盒试点。(来源:中国政府网)

美国巴尔的摩市计划建设普惠智能网络以缩小数字鸿沟

11月30日,美国巴尔的摩市长办公室宣布,将拨款3500万美元为受公共卫生紧急情况影响最严重的社区和居民提供网络接入方面的救济。其中,首笔600万美元将用于大幅扩大公共互联网接入,以缩小城市中的数字鸿沟。鉴于互联网接入已成为最为关键和基本的公共基础设施,实现网络接入公平成为未来智慧城市的关键内涵之一。巴尔的摩市计划在未来十年间持续投资于在全市范围内建设开放、普惠的智能网络基础设施,以确保每位市民都能平等、便捷的接入互联网。(来源:巴尔的摩市政府官网)

李麒|人工智能伦理规范的初步探讨

原创李麒上海市法学会东方法学收录于话题#上海法学研究379个#核心期刊591个#法学647个#原创首发739个

李麒

北京理工大学珠海学院民商法学院教授

要目

一、前言

二、伦理规范的理论基础

三、人工智能的伦理规范

四、建立伦理监督委员会

结论与建议

2019年5月25日北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位,共同发布《人工智能北京共识》,提出人工智能的研发、使用、治理应该遵循有益于人类命运共同体建构和社会发展的15条原则。

一、前言

人工智能研发应符合伦理的设计方法,尽可能公正,减少系统歧视与偏见,提高系统透明性,增加系统可解释度、可预测性,使系统可追溯、可核查、可问责等。2019年7月,中国国家新一代人工智能管理委员会发布《新一代人工智能管理原则》,提出尊重人的隐私、尊严、自治和重视权利,不应使用人工智能伤害人类。另一方面,人工智能的伦理价值在美国也有广泛的讨论,大型科技公司提出人工智能伙伴关系等概念。2017年谷歌公司放弃与美国国防部续约,原因是美国国防部要求该公司将先进的人工智能技术应用于军事用途。1983年成立的计算机专业人员社会责任组织(ComputerProfessionalforSocialResponsibility,CPSR)及联合国人权观察组织都主张禁止全自动武器的条约,例如自主选择轰炸目标的无人机等。人工智能伦理问题向来受到各界广泛关注,包括联合国发布的《关于机器人伦理的研究报告》、国际标准化组织IEEE发布的《合理伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》;由Hawking、ElonMusk等人推动的人工智能23条准则(或称阿西洛马人工智能原则);英国剑桥的存在风险研究中心(CSER)、牛津的人类未来研究所(FHI)、美国波士顿的未来生命研究院(FutureofLifeInstitute)。美国麻省理工学院媒体实验室(MITMediaLab)与哈佛大学伯克曼·克莱因互联网与社会研究中心(BerkmanKleinCenterforInternet&Society)合作推出的耗资2700万美元的AI伦理研究计划;加拿大蒙特利尔大学人工智能伦理小组发布的《负责地发展人工智能的蒙特利尔宣言》;等等。现代社会技术和法律时常处于紧张状态,虽然技术促进新的发明,但法律则趋向保守,基于社会道德或人类恐惧而禁止克隆就是一个例证。有人认为超级智能的发展,会因其优越性而超越人类,进而夺取道德评价的话语权,使人类失去道德尊严的主动权。这虽是对新兴科技发展的普遍忧虑,但法律不应成为科技创新的阻碍,因此2017年7月8日国务院制定《新一代人工智能发展规划》,提出制定促进人工智能发展的法律法规和伦理规范。工信部出台《促进新一代人工智能产业发展三年行动计划(2018—2020)》,教育部出台《高等学校人工智能创新行动计划》,中央全面深化改革委员会第七次会议审议通过《关于促进人工智能和实体经济深度融合的指导意见》。2020年7月27日,国家标准化管理委员会、中央网信办、国家发改委、科技部、工业和信息化部等五部委印发《国家新一代人工智能标准体系建设指南》,要求到2021年,明确人工智能标准化顶层设计,完成安全、伦理等重点标准的预研工作,2023年初步建立人工智能标准体系。上述文件均显示人工智能伦理发展受到高度重视。

以自动驾驶车辆的伦理规范设定为例,若以符合全体社会成员最大利益为原则,则会采取强制的伦理设定(mandatoryethicssetting,简称MES),而排除让每一个司机或乘客都选择个人化的伦理设定(personalethicssetting,简称PES),由于自动车驾驶涉及公共利益,片面尊重工具使用者的自主权,基于人类自利的本质,很可能导致公共安全与道德的双重危险,基于社会共同体的责任与价值利益考虑,强制伦理设定是比较妥适的作法。但是在具体设定算法时,如何避免算法偏见和歧视?若以功利主义为算法基础,为了拯救多数人,仅载有一名乘客的车辆有很大几率会成为事故撞击的目标;若采取最小化伤害原则的道德算法,德国制的自动驾驶车辆是否可能选择日本车为撞击对象,因为一般而言,日本车的防护钢板较薄弱,如何决定类似的伦理规范显然值得讨论。

二、伦理规范的理论基础

2018年世界人工智能大会发布的“上海倡议”提出建立与人工智能创新发展相适应的立法规范、法律体系、政策体系和伦理体系,制定技术设定阶段的法律规范,通过规则设定促进人工智能算法的公正、透明、安全,避免算法歧视,2019年中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》特别强调此理念。人工智能的伦理规范非常重要,主要包括为智能机器人预设道德准则、设定人工智能技术研发及应用标准,建立人工智能产品本身的道德指引,以及规制科研人员的伦理规范。科学技术要解决的是“能不能”的实然问题,伦理学要解决的是“该不该”的应然问题,人工智能不仅是单纯的技术问题,也是哲学问题。以下提出几种典型案例的思考方式,部分案例来自1985年美国教授JJ.Thomson提出的电车难题(TheTrolleyProblem):

典型案例:

案例1:电车难题

假设某辆电车沿着既定路线前行,电车突然发生故障而无法操控,如果电车继续前行会碾毙在既定路线上工作的五位作业员,此时刚好有一位作业员A站立于轨道分转器旁边,目击了现场状况,A如果使用轨道分转器切换路线,可以让电车转入另一条轨道而拯救五位作业员的性命,然而在切换后的轨道上有一位作业员B正在工作,轨道切换后电车会将B碾毙,试问A是否应该作出转换轨道的决定。不选择转换轨道将导致五位作业员死亡,选择转换轨道会导致作业员B死亡,A如果选择后者,法律上是否可以主张紧急避险。

案例2:陆桥上的胖子

突然失去控制的电车持续前行,如果继续前行会碾毙在既定路线上工作的五位作业员,A与完全不知情的C正好走在陆桥上,C体型非常肥胖,如果A突然将C推落桥下,以C作为障碍物则刚好可以让电车停止(题目设定为牺牲C一定会使电车停止),因而救助五位作业员的性命。A是否应该推C下桥?

案例3:自动驾驶车辆的情况

在深不可测的溪谷上有一条非常狭窄细长的陆桥(只能单线双向通行),A搭乘自动驾驶车辆(A并未操作车辆)正在桥上行进,对向开来一辆大巴士(有乘客40人),大巴司机突然失去意识导致该车越过车道线,直接冲向搭乘A的自动驾驶车辆,此时如果A的车辆加速前进稍微擦撞大巴车的侧边,可以保护A的安全,但是大巴车会掉落山谷,车上40人均会死亡;如果A的车辆不加速,直接与大巴士正面相撞,则A死亡,大巴士不会掉落山谷,车上乘客均会获救,A所搭乘的自动驾驶车辆应该加速,还是不应该加速?

案例4:社会评价体系下的自动驾驶车辆

甲为大学教授,具有名校毕业的博士学位,认真工作,乐善好施、义务担任社会服务工作,服务人群曾受政府表扬,人工智能系统赋予的社会评价分数为95分;乙未接受良好教育,无业而四处游荡,曾因盗窃罪在监狱服刑,人工智能系统给予的社会评价分数是20分,某日乙不遵守十字路口交通标志,违规闯红灯穿越马路,甲所搭乘的自动驾驶汽车正准备通过该路口,此时因不明原因汽车刹车失灵,汽车正迅速向乙接近,人工智能系统立即作出判断,无论直接撞击乙或右转撞击路树都可以使车停下来,此时人工智能作出何种选择会符合正义的要求?

伦理规范的哲学理论与案例思考

伦理规范是划定个人行为与社会组织界限的一种方法,西方社会有两种主要的道德理论,一是边沁的功利主义理论,利益最大化作为道德标准,在以效用主义为基础的博弈论在人工智能中经常被用于理解个体与群体的相互作用,为算法的伦理分析提供基础。二是康德的义务道德论,道德动机是人类行为的准则,理性且具有自由意志的人是道德主体,能作出最终决策,人本身就是目的,任何人都不能将他人作为工具,或达成特定目的的方法或手段。问题在于此种绝对律令的观点,如何转换为人工智能的正确规则。温德尔·瓦拉赫、科林·艾伦认为机器人可以根据人类的普遍道德法则作出是非判断,具有理性能力。康德认为自主性是人类自我意识的根本条件,如果机器人可以超越人类控制,这种自主技术性的概念会令人感到不安,因为赋予人工智能自主性,代表人的自主性被替代,主客体的地位将发生变化。可能的解决方法是在人工智能设计之始,将一些伦理规则作为绝对律令,以代码的方式写入人工智能的程序中,例如机器绝对不能攻击人类,特别是老弱妇孺,植入规范性伦理程序就是康德道德律令的代表。

人工智能道德伦理的责任议题,包括人权伦理、责任伦理、道德地位伦理、代际理论、环境理论以及大数据伦理与隐私,以联合国宣言为基础,有人认为应将人类责任与机器人责任伦理的标准同等对待,主要包括正义与团结、相互尊重与合作、信任与容忍、基本人性准则等。建立在亚里士多德道德观念上的人工智能道德理念,是自下而上的理论体系,机器可以自主学习,而具有类似神经网络链接机制的机器人就有可能具备道德判断能力。

如果采取边沁的功利主义,应当追求“最大多数人的最大幸福”,案例1及案例2都会作出拯救5人的生命利益大于牺牲1人的生命利益的决定。案例3自动驾驶车辆不加速与大巴士直接相撞,才能拯救车上40位乘客的生命,A的生存机会势必被选择放弃,人工智能设计师必须预先设定“牺牲自驾车乘客”的程序模式,在这种情况下,是否还有人选择使用自动驾驶车辆?如果采取康德的道义责任论,无论在任何情况下,人的生命都不可以因为特定目的而被利用,则案例1及案例2都会作出不救助5个作业员的决定,因为生命的价值没有数量或高低的区别。在案例3的情况由于生命价值相等,自动车加速与否都会造成生命损失,程序设计师是否应该优先考虑使用者的安全,保护使用者(消费者)安全是否为产品制造或设计者的法律义务?

其次,针对案例4,若采取功利主义,AI的设计者应该会选择让汽车直接撞击乙,因为甲的社会评价分数90分远高于乙的20分;如果采取康德的道义责任论,人始终是目的,而不能成为达成特定目的的方法或手段,所以不能把人单纯当作客体对待,由于每一个人的生命价值相同,AI的设计者应当会让汽车右转撞树而导致甲死亡或受伤。由上可知,AI对于甲、乙生死的决定取决于工程师对于算法的设计。无论AI选择直接撞击或转向都会导致对人工智能数理逻辑算法的疑虑,直接撞击会造成阶级对立,加剧社会精英与普通民众的紧张关系;转向则会使无人驾驶汽车失去用户,因为每一次驾驶都类似俄罗斯赌盘,搭乘者可能会因突发事件而被牺牲,个人没有过错却必须成为被选择牺牲的对象。

案例3及案例4的自动驾驶车辆程序设计者必须面对一项难题,应当对人工智能输入何种价值选择标准,在更复杂的情形下,例如一方车辆的乘客只有5年的余命,另一方乘客有20年的余命,哪一辆车的安全应当优先考虑(事实设定为两辆车可以自动交换乘客信息)?又如果两车乘客的余命完全相同时,一方是高额纳税人,另一方是欠税大户,自动驾驶车辆的程序参数(parameter)又应该如何设计?

另一种观点认为,根据哲学上的双重效果原则(Doctrineofdoubleeffect),行为人虽然应该对于自己意图决定所产生的损害结果负责,但即使发生损害且能预见结果的发生,若损害不是根据有害意图的行动所造成,就不应该追究行为人的责任(前提是此行为是人道的、或至少是道德中立的、或不会为自己带来直接利益)。案例1中A转动换轨器时虽然预见B的死亡,但A的意图是为了拯救5个作业员的生命,因此B的死亡只是附随发生的结果;案例2中A的直接意图是将C推落桥下,C的死亡附随产生救助5名作业员的结果,根据双重效果原则,案例1可以被正当化,但案例2则不能被正当化。

人工智能的伦理规范必须保留人类的基本价值观。一般而言,人工智能采取的是工具理性表现方式,人类行为则具有价值理性的思维,将此种价值理性转化为精确的算法设计十分困难,而且不同的文化习俗、宗教信仰、社会公德自有不同的价值判断标准,人工智能面对价值体系如何选定价值体系,其本身虽是一个难点,但是在算法中嵌入公平、正义、良善等价值观的追求应该是正确的方向。具体的方法是将人的道德理性融入算法程序,研发“道德代码”以明确人工智能的道德主体责任,道德代码指程序员除了按科学方式编码外,同时在代码中融入道德感情,使编码在执行程序时具有道德价值判断功能,亦即编码本身应具备道德功能。人工智能的道德属性源于人类自身的道德认识,这种道德属性需要专家的技术设计,所以健全程序设计者的伦理体系与道德观是根本的问题。

三、人工智能的伦理规范

域外的人工智能伦理规范

1.欧洲

欧洲议会的法务委员会(JURLCommittee)于2015年1月召开关于机器人与AI进化的法律问题工作会议,同时设立专责工作小组,该委员会于2017年1月提出“关于机器人民事法规则的欧洲委员会建议”报告,认为欧洲应该设置管理机器人与伦理规则的专责机构并建立适用于欧洲全境的管理规则,长期而言,未来对于自律型的机器人可以讨论赋予电子人格的可能性。本报告提出广泛受到重视的五项伦理原则,内容包括自由、隐私、人性尊严、自己决定权等,对于机器人运用所造成的影响实施评估;人们拒绝使用人工智能,但仍会因人工智能对生活产生实质影响时,应当对于人工智能决策的各种可能性,寻求理论依据;AI的算法必须能还原为人类可以理解的型态或方式;强人工智能的逻辑程序决定程序,必须全程予以记录备案,不能存有黑箱的现象,确保“透明性原则”的落实。同时在附录部分(Annex),提出对人工智能工程师的伦理行为准则(CodeofEthicalConductforRoboticsEngineers),这个准则属于建议、指导的性质,没有强制性,对于人工智能工程师的具体行动方针包括

(1)善行(Beneficence):人工智能的行为必须符合人类利益。

(2)无害(Non-maleficence):无论在任何情况下,机器人都不能伤害人类。

(3)自主性(Autonomy):使用机器人所提供的人类信息,不能以强制方式取得,必须根据人类的自由意志作成决定。

(4)正义(Justice):特别是居家治疗,使用照护式机器人时应当给予公正的利益分配。

2017年6月德国交通部伦理委员会公布《自动和联网驾驶》报告,提出自动车驾驶的20条伦理规则,其核心内容包括保护个人优先于其他一切功利主义的考虑;当危险情况不能避免时,保护人类生命优先于其他法律利益,为了避免人员伤亡,在编程上允许对给动物或者财产造成损害;道德困境下的决策依赖于现实的具体情况,无法清楚地给予明确标准;处于无法避免事故发生的境况下,禁止以年龄、性别、生理或心理状况等人身特征进行歧视性决策,不得牺牲无关的他人。2016年4月德国政府通过法律,将“驾驶员”定义扩大到能够完全控制车辆的自动人工智能系统,同时提高无人驾驶的保险费与赔偿费。

为了避免算法歧视,我们应当有合理的AI设计,可以将人类社会的法律、道德等规范和价值嵌入AI系统,根据国际标准化组织IEEE提议,首先是规范和价值的发现,确定AI系统应当遵守哪些规范,在价值相互冲突时又应该如何抉择;其次是法律或道德规范能否转换为计算器代码写入AI系统,采取方法是自上而下地将规则写入系统,要求人工智能遵守规则,还是自下而上由机器自我学习价值与伦理规则,目前尚无定论;最后是对人工智能采取的价值和规范进行评估,从三方面加以评估,包括使用者评估、主管部门评估和行业组织评估。

2.日本

日本政府于2016年5月30日设置“关于人工智能与人类社会恳谈会”,经过6次讨论,于2017年3月24日提出正式报告,该报告提出人工智能的伦理论点:(1)随着人工智能技术不断进步,人工智能技术机器与人类关系可能会逐渐产生变化,对于未来新关系所形成伦理观的内容应事先设想规划;(2)应用人工智能技术所产生的服务,在作成决策的评价标准与处理优先次序时,仍会受到人类心智或行动的控制,此类决策如果受某些特定的人类感情、情绪或信念的制约,就会令一般人产生不安全感,特别是在我们没有察觉,一切决定都受程序操控的状况下,伦理规范的讨论显得更为重要;(3)运用人工智能技术会扩展人类在时空或身体领域的范围,但是应该注意人工智能与人类能力与情感方面的相互作用,适度加以调适;(4)对于与人工智能技术有关的行为或创新价值,应给予适当评价,而这种价值观要考虑社会接受程度,尽可能的采取多元化的观点。2017年7月日本总务省情报通信研究所在《2017报告书—关于推动AI网络化国际议题的讨论》报告书中提出《AI发展纲领》,提出伦理原则的内容是“开发者应当尊重人性尊严与个人自主,在开发与人类脑部或身体相连的AI系统时,应注意有关生命伦理的争议,并予以特别慎重的考虑。开发者参照技术的特性在可能的范围内,应努力排除包含AI系统学习数据在内,所形成的一切偏见和其他不当差别对待的措施。开发者应遵守国际人权法、国际人道法,随时注意AI系统是否有不符合人类价值的行为”。

3.美国

2016年5月美国奥巴马政府在白宫召开AI所带来利益风险的工作会议,会议结论,提出《对未来人工智能的准备》(PreparingfortheFutureofArtificialIntelligence),该报告提出面对未来人工智能的23点事项,其中也涉及AI伦理问题,所有的事项都可以提供美国联邦政府及各界参考,第16点是“联邦政府机关应当考虑如何确保人工智能的有效性与公平性”,第17点强调人工智能系统透明性的重要性。第18点要求在各级学校的重要课程中,例如人工智能、机器学习、计算器与数据科学等的科目,在安全性与隐私方面设计出与伦理规范有关的主题。第23点提及对全自动或半自动武器的相关政策要符合国际人道法的规定。报告结论认为随着人工智能的持续进步,如何确保人工智能的透明性与说明可能性显得十分重要,人工智能的理解过程与人类理性的思维间如何取得平衡也应受到重视。

4.民间组织

(1)电器和电子工程师协会IEEE(TheInstituteofElectricalandElectronicsEngineers)

IEEE是总部设在美国的电器工学、电子工学技术的学会,该学会是世界最大的技术者研究团体。IEEE于2016年4月通过《伦理因素的自动化系统设定的全球化倡议》(TheGlobalInitiativeforEthicalConsiderationsintheDesignofAutonomousSystems),认为在谋求伦理、法律和社会目标一致性的前提下,确有必要对于AI系统的设计方法予以研究,因而提出此项计划。2016年12月接着公布第1版《伦理指引—以人类福为的优先人工智能与自动系统》(EthicallyAlignedDesign-AVisionforPrioritizingHumanWellbeingwithArtificialintelligenceandautonomousSystem,Vision1forPublicDiscussion),〔2018年2月整理了来自全世界包含美国、欧洲、中南美洲在内的官方与民间专家约250人的意见后,公布了该指引的第2版。该版本共263页,大致分为下列主题:(1)一般原则;(2)自律智能系统价值观的内容;(3)伦理研究和设计的导入方法;(4)一般人工智能(AGI)与超人工智能(ASI)的安全性;(5)取得与使用个人信息的限制;(6)自主兵器系统的再规制;(7)经济与人道的问题;(8)法律;(9)人工智能对人类感情与情绪的影响;(10)政策;(11)自主智能系统的古典理论;(12)信息通讯技术(ICT)的复合实现(MR);(13)人类幸福(自主智能系统的应有目标)。作为总论部分的“一般原则”包括(1)如何确保AI不会侵害人权(2)就社会繁荣度的指标而言,AI可以带来人类的幸福?(3)如何确认AI设计者、制造者、所有者与运用者的责任?(4)如何确保AI的透明度?(5)如何获得利益最大、风险最小的AI技术。各论部分对于现有指引内容过于抽象提出检讨,对于指引内容尽可能的予以明确化,例如对于“自律智能系统价值观的内容”的主题,其价值观内容固然应当符合社会的期待,不能违反法律规定与现存文化,但就规范与价值观而言,每个人的举止行为、语言、文化、艺术品味等各有自己的主观判断,自主智能AI系统应当如何设定学习方式就成为难点。不同形式的自主智能系统应如何搭配特定的规范或价值观,事实上也难以决定。首先,只能从特定群体(community)着手,针对符合特定工作(task)的自主智能人工系统,尝试寻求出可以遵循的规范内容。对于“自主智能系统的古典理论”的主题,AI的开发的伦理议题,不能仅围绕着西方伦理(功利主义、义务论、道德伦理学等)讨论,对佛教、儒教、日本神道等其他领域也应当加以考虑。

(2)人工智能百年研究(OneHundredYearStudyonArtificialIntelligence)

该组织由斯坦福大学毕业生所创立,以今后100年AI长期发展为研究目标,判断人工智能对于社会有何种影响,每五年提出观察、分析报告的一项研究计划,其成果是2016年9月发表的《ArtificialIn-telligenceandLifein2030》研究报告,报告分为交通、居家服务机器人、健康照护、教育、低资源消耗共同体的实现、公共安全和保障、职场与雇用、娱乐等8个部分,从长期展望加以分析,特别是交通部分的自动驾驶汽车、无人机运用部分有较多的描述,在法政策方面则主要讨论隐私权、创新政策、民事责任、刑事责任、代理、资格、劳动、税、政治等问题。

(3)人工智能合作组织(PartnershiponArtificialIntelligencetoBenefitPeopleandSociety,Partner-shiponAI)

PartnershiponAI是2016年9月由Amazon、Google、DeepMind(Google)、Facebook、IBM、Microsoft等成员所设立,2017年Apple、OpenAI等新成员加入,日本Sony也希望加入,这是一个发展人工智能的世界企业联合组织。该组织提出主题支柱(ThematicPillars)重点有:①重视AI安全性(Safty-CriticalAI);②公平、透明而具可说明能性的AI(Fair,Transparent,andAccountable);③人们与AI系统的协调(Collab-orationBetweenPeopleandAISystems);④AI、劳动与经济(AILaborandtheEconomy);⑤AI社会的影响(SocialandSocietalInfluencesofAI);⑥AI和社会利益(AIandSocialGood);⑦特别提议(SpecialInitiatives)。针对AI研究与技术的信赖、国际习惯和尊重人权、说明可能性等重要问题,该组织提出8大信条(Tenets)供各界参考。

(4)生命未来研究机构(FutureLifeInstitute)

该组织简称FLI,2015年由Skype共同创始人JaanTallinn等人所创设,该组织的咨询委员会由太空探索技术公司SpaceX社的埃隆·马斯克(ElonMusk)、宇宙物理学家史蒂芬·霍金(StephenHawking)、演员摩根·费理曼(MorganFreeman)等14位人士组成。2017年1月在美国加州阿西洛马(Asilomar)以“人工智能对人类有何利益”为主题,同年2月公开发表阿西洛马AI原则(AsilomarAIPrinciples),该原则有23条,其中与伦理价值观有关的课题,整理如下:

四、建立伦理监督委员会

为处理人工智能伦理问题,德国成立数据伦理委员会,个别企业也设立道德指引的规则,鉴于人工智能使用数字化的风险,由国家制定法律作为规范固然重要。但企业自主规制与建立伦理委员会也是不可欠缺的机制,欧盟委员会欧洲科学与新技术伦理小组,提出尊重人性、自主性等伦理清单。本文介绍日本人工智能的伦理监督委员会,以供参考。

日本人工智能学会成立于1986年,学会的伦理委员会设立于2014年。2017年2月学会公布《人工智能学会伦理指针》,整理其具体内容提供参考:

结论与建议

探讨人工智能道德理论的法律论文数量很多,但能提出具体解决方案的有限,甚至有人认为人工智能设计者、使用者或法律规定的道德选择不在其讨论机器人道德范围内。本文认为这是一个必须面对的难题,根据“理论—规则”驱动进路,将特定群体认可的价值观和道德标准程序化为道德代码,嵌入智能系统,内置道德决策场景的指导性抉择标准。理论上伊曼纽尔·康德(ImmanuelKant)的道义论、约翰·密尔(JohnMill)的功利主义和约翰·罗尔斯(JohnRawls)的正义论都可以成为参考选项。

人类自由意志的问题,在哲学上争论甚久,波蓝尼悖论(Polany’sParadox)认为,“我们知道的可能比我们能说出来的更多,如同司机的技能不可能完全用驾校的驾驶汽车理论来替代”。人工智能以海量数据信息为基础,可以按照既定算法进行预测,但人类拥有自由意志,在面对突发状况时也许会采取出人意料的决策,因为人类大脑掌握的能力高于既定的知识,可以说人类的思维存在着某种不确定的点,人们不是按照既定程序做决策,而是根据自由意志下判断。否定人类有自由意志的观点则认为人类的所有感受没有所谓“自由意志”,一切只是哺乳动物及鸟类拥有的生化机制,用来快速运算生存和繁殖的几率,直观的感受其实只是一套生化演算的结果。无论采取自由意志或生化演算的观点,人工智能的设计者都应当在算法设计阶段做好价值嵌入的程序,融入包括绿色、伦理、守法、自由、关爱在内的“共同善”的价值。

本文前述案例所提及的复杂问题,人类本身至今亦未能有一致的“正确”判断标准,如何期待程序设计者能够为人工智能嵌入一套具备普世价值的判断标准?马克思·韦伯提出诸神之争的本质是现代社会中价值观念之间的冲突,道德规范属于“应然”领域的价值判断,科学无法解决价值判断问题,沟通协调与坦然面对是理智成熟的解决方式,此部分仍有待人类共同努力。所以现阶段人工智能伦理规范多集中于外在规制层面,强调多元伦理原则,至于伦理规范的实质内容,或许可从人本主义为思考起点,以人性尊严作为人工智能立法的价值基础,以人的基本安全为底线,建立人工智能和机器人应用的基本伦理架构,作为人工智能规范政策的最高指导原则。在法制层面制定人工智能发展法,授权人工智能专门监管机构,建立全流程监管体系,成立“数据伦理委员会”,强化数据信息与隐私权保护,也是一个可行的方案。

2017年7月8日国务院制定的《新一代人工智能发展规划》强调采取三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律规范、伦理规范和政策体系;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。在技术层面,国家标准化管理委员会于2018年1月成立国家人工智能标准化总体组,已发布《人工智能伦理风险分析报告》,目前正研究人工智能术语、人工智能伦理风险评估等标准。2019年我国亦发布《人工智能北京共识》《新一代人工智能管理原则》等重要文件,本文建议持续参考国内外伦理规范资料,设计政府部门的全国性监管方式、制定人工智能道德准则、成立各级人工智能伦理委员会,从而使得我国的人工智能规范更加完善。

原标题:《李麒|人工智能伦理规范的初步探讨》

人工智能时代的伦理框架

“主要讯息是情境的重要性。”克雷格说,“对于数据的某种应用,他们判断其风险和好处的基本标准始于对动机的感知。”

“他们真的很关心为什么一项新技术会被引入,为什么会有新的应用,以及数据有哪些,目的是什么。他们也关心受益者,尤其是,如果他们看到它帮到了自己,帮到了像自己一样的人、像自己一样的群体以及更大范围的群体,他们的态度会更加支持。”

从根本上说,消费者需要得到直接的好处。如果这件事帮到了人们,赚不赚钱就不是问题。

任何由数据驱动的自动决策,都是基于感知到的风险和责任水平来接受评估。例如,与自动驾驶汽车建议相比,亚马逊的购物建议得到的关注就要少得多。

人们支持那些能够实现更多人际交往的技术应用,比如,技术可以省下时间,让用户与亲友有更多的交流。

对技术的过度依赖可能导致人们永久性地失去历代人所掌握的技能。

技术需要被证明能够增强而不是削弱人类的能力。能够帮助专业人士省下时间从事更重要工作的技术,将得到广泛支持,但那些有可能取代人力的自动化技术将让人们心生警惕,这一点毫不意外。

“人们很担心自己会被取代,对未来的工作也有很大的担忧。”克雷格说,“那些潜在的新工作,都在哪里呢?”

随着技术让我们走上无个性化的必然道路,并挑战人之为人的本质和价值,这些担忧会发展成有关存在价值的恐惧。如果一台计算机能够比你更好地完成所有工作,如果一种算法有权力决定你的选择,那么自由在职业、教育和财政支持等领域遭到限制,似乎就是不可避免的后果。

建立信任

数据的有益使用得到的媒体曝光很少与其负面使用得到的曝光度相同。拉斯维加斯的赌场或许会用数据科学来估算你的消费门槛,并在你达到那个门槛时送上一杯酒,希望你能继续消费。但同时,我们也看到Streams这样的应用通过扫描患者数据来预测急性肾损伤风险,从而达到提升医疗效果和减轻护士日常工作负担的目的。

我们可以通过宣传正面使用的事例来提升公众的信任,比如伦敦交通局使用开放数据预测公交车的到站时间,或是食品标准局通过社交网络来监测诺如病毒的传播。

咨询公司FrontierEconomics在最近的一份报告中预测,到2035年时,人工智能将为英国经济增加8,140亿美元的产值,并让经济增长率从2.5%上升到3.9%

“这些实实在在的数字令人印象深刻,但它们仍然未能充分反映由数据驱动的技术,比如数据分析和人工智能,将如何积极地改变经济和生活的方方面面,并真正帮助我们建设更加富裕、更加健康和更加清洁的社区。”微软英国的政府事务经理欧文·拉特(OwenLarter)说。

美国医疗系统已经在应用能够进行模式识别的算法技术,来应对医院中可预防的错误,这些医疗事故是位居癌症和心脏病之后的第三大致死原因。由数据驱动的模式识别技术可以依照既有的最佳临床实践,为医生标记出反常现象,防止这些错误造成重大伤害。

如今,英国背负着伦理责任,它要应对一系列挑战,比如老龄化人口的医疗费用问题,那意味着,今天的NHS到了明天将无法维持。

techUK的副首席执行官安东尼·沃克(AntonyWalker)认为,我们开发的数据宝藏能够拯救生命,但前提是它的潜力得到释放。

“如果我们希望子孙后代能够拥有一套免费的医疗服务体系,我们对他们是有伦理上的责任的。”沃克说,“做成这件事的唯一办法是通过使用数据。”

当涉及计算机代码时,追究责任可能成为一个难题,但让整个过程可审计,解释其中的工作原理,将帮助建立公众信任。克雷格认为,我们还需要对公众担心的事情做出回应。

“透明度是必要的,但绝对说不上什么效率。”他说,“知道发生了什么事,这只是起点。”

问责、职责和责任是一个复杂的三角。最后一个会真正对公司造成损害,也是违规需要得到纠正的地方。

除了上述关于隐私、治理和知情同意的问题,在数据公平和偏见方面,公众也存在着持续的担忧。与人的意见相比,算法通常被赋予了更多的信任,尽管算法也是人类情感和偏见的产物。

数据科学仍然是一门相对较新的学科,因此,科学家需要在数据伦理和标准方面,接受全面的训练。他们设计的算法造成的结果应该接受审计,以确保透明度和安全性。

“我们很难窥视算法的黑箱。”沙阿说。

他希望组建一个独立的数据伦理委员会,而且,相比建立新的监管机构,他更愿意赋予现有监管机构额外的权力。

迈向未来

牛津大学哲学和信息伦理学教授卢西亚诺·弗洛里迪(LucianoFloridi)一直在研究数据未来的发展,以及未来几年产生的伦理影响。

他描述了人工智能两种不同的发展前景:第一种被称为“泳池模型”,即人工智能的“池水”将溢满整个世界;第二种是他自己预测的“坑洞模型”,即人工智能的“水滴”会滴落在一切事物上,但只会注满特定的“坑洞”。

“就连接这些坑洞来说,人工智能不会做所有的工作,那将由人类来完成。”弗洛里迪说,“而且,我们将如何充当人工智能应用与其他人工智能应用,或是与其他需要连接的系统之间的接口,在这方面,我们需要搞清楚的伦理问题还有很多。如何连接这一切,是完全未知的领域。”

新技术总是会为犯罪活动提供新的机会,而私人企业、公共机构和执法部门的追赶步伐可能非常迟缓。在欧洲刑警组织2016年的《互联网有组织犯罪威胁评估报告》中,有一个章节专门讨论了现有的各种网络犯罪行为,但几乎没有提到人工智能。

“很多人都在谈论利用机器学习和人工智能来打击有组织犯罪,但有人在谈论有组织犯罪会怎样使用相同的技术吗?”弗洛里迪问道,“如果你在操作系统中发现了某种漏洞,你能想象有人利用人工智能系统对这一漏洞进行攻击后,事情会演变成什么样吗?据我所知,只有汽车行业的人在谈论这件事。”

人们看到了算法在提升计算机安全性方面的潜力,但它同样有能力去破坏这种安全性。当自动化技术把这些算法安装到相同的系统上时,一旦黑客发动攻击,他们将不再需要逐一破解每辆汽车上的电脑。

不过,我们在私人领域看到了一些积极的发展态势。企业越来越把数据伦理视为一笔珍贵的资产,尤其是在它们从初创公司成长为大型企业之后。

技术可以改变伦理,比如避孕药的出现,它在公众掀起性革命之前,就引发了这样一场革命。如果要让数据充分发挥它所具有的变革性潜力,就必须建立一套伦理规范,同时还要搭建一个伦理框架来提供保障。新的制度能否落实到位,取决于政府和行业。

End.

来源;36大数据返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇