博舍

全球数治|首份人工智能伦理全球协议的两项关键共识 全球在人工智能伦理方面形成的共识有哪些

全球数治|首份人工智能伦理全球协议的两项关键共识

这里是“全球数治”专栏周报,追踪近期全球数字治理动态

11月24日,联合国教科文组织(UNESCO)在第41届大会上通过了首份关于人工智能伦理的全球协议《人工智能伦理问题建议书》(以下简称《建议书》),供193个成员国采用。《建议书》定义了关于人工智能技术和应用的共同价值观与原则,用以指导建立必需的法律框架,确保人工智能的良性发展,促进该项技术为人类、社会、环境及生态系统服务,并预防潜在风险。

作为引领第四次科技革命的关键技术创新,人工智能给全球社会和经济发展带来了重大而深远的正面影响,例如增加生活便利和民生福祉、提升政府和企业运营效率、帮助应对气候变化和贫困饥饿问题。然而,该项技术同时也带来了前所未有的严峻挑战,包括对个人隐私和尊严的重大威胁,性别和种族偏见加剧,大规模监控风险激增等。

鉴于该项技术在实际应用过程中兼具创造性和破坏性,但却长期缺乏全球通用的治理标准,UNESCO于2018年发起“为世界打造运用人工智能的伦理框架”项目,遴选24名来自世界各国的专家历时三年共同撰写完成《人工智能伦理建议书》,并经过193个成员国之间超过100小时的多边谈判和反复修订,最终于今年11月获得通过。这不仅是全球首个针对人工智能伦理的规则框架和共同纲领,也是当前在世界各国政府层面达成的最广泛共识,为下一步制定规范人工智能发展的具体国际法规和技术标准提供了强有力支撑,堪称多边主义的又一次胜利。

《建议书》所建立的人工智能伦理框架主要由价值观、伦理原则和政策指导三部分组成,文本内容十分全面,注重多方观念和利益的平衡。其中,人工智能的价值观强调:一、尊重、保护和促进人权、基本自由及人的尊严;二、保护环境和生态系统的蓬勃发展;三、确保多样性和包容性;四、在和平、公正与互联的社会中共生。伦理原则主要包含:相称性和不损害、保障安全、公平和非歧视、可持续性、隐私权和数据保护、人类监督和决定、透明度和可解释性、责任与问责、技术认知和素养、多利益攸关方协同治理等10方面。政策指导则涉及伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉、监测与评估共12个细分领域。同时,《建议书》鼓励所有成员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测应用该技术带来的影响。

在全面考虑和广泛涵盖的基础上,《建议书》最为核心的内容集中于呼吁各国采取数据保护行动、禁止社会评分和大规模监控、监测和评估人工智能系统的社会及环境影响等。并且,《建议书》在这些问题上没有一味遵从西方人工智能技术先发国家的既有标准,而是通过编撰过程中的区域性专家咨询会、政府间专家磋商、各成员国意见征集等环节来广泛听取和采纳中国等发展中国家的意见和建议,努力平衡价值差异,推动形成多边共识。其中,有两项共识尤为关键。

首先,《建议书》将“可持续发展”确定为全球人工智能发展的总体愿景和重要途径,主张发展人工智能技术和应用都以有利于实现可持续发展目标为优先导向,且需要密切关注和防范阻碍该目标实现的各类风险。同时,《建议书》不囿于应当“发展先行”还是“治理先行”的争论,强调两者相互协同,使人工智能系统在整个生命周期内都可以赋能人类、社会、生态之间的和谐共生。

其次,在人工智能伦理和治理范式创新方面,《建议书》倡导“协同共治”的路径选择。《建议书》强调,诸如人脸识别、自动化决策、社会评分等人工智能应用带来的伦理挑战不可能仅通过禁止使用来解决问题,而是要将基于多边共识的伦理标准贯穿于人工智能系统设计、研发、部署、使用的全部过程,并适配相应的治理规则和手段,实现防患于未然。与此同时,人工智能治理单靠政府或政府间合作并不能有效实现,而是要依靠整个技术生态系统中的多方深度协同。政府、企业、研发、用户、学术界、媒体等利益相关方都需要担负起相应责任,开展全流程协同共治。

UNESCO通过相对平等而广泛的公共讨论促成了《建议书》及首个全球人工智能伦理框架的确立。这不仅凝聚了全世界193个国家对这项新兴技术的可持续发展共识,也进一步打开了未来多边协同治理的新前景。下一步,还需要将其中的价值观、原则和政策加以落地,推动各国形成可执行的标准和细则,将理念化为行动,使理想融入现实。

规则

美欧启动联合应对技术竞争政策对话

12月7日,欧盟委员会执行副主席玛格丽特·维斯塔格、美国联邦贸易委员会主席莉娜·汗和美国司法部反垄断助理总检察长乔纳森·坎特在华盛顿启动了美欧联合应对技术竞争政策对话并发表联合声明,以加强双方在快速发展的技术领域内的政策协调和共同执法。声明指出,美欧坚持共同的民主价值观和对良性市场竞争的信念,在数字竞争执法领域面临网络效应、海量数据、互操作性等共同挑战。因此,美欧将在政策和执法方面进一步加强协调。

英国发布算法透明度的开创性标准

11月29日,英国中央数字办公室(CDDO)发布了算法透明度标准,旨在为政府部门和公共机构提供用于支持决策的算法工具的明确信息,兑现其在国家数据战略和国家人工智能战略中做出的承诺。算法透明度标准涵盖透明度数据标准,透明度模板和行动指南等,将有助于帮助组织提高算法工具的透明性。

缅甸罗兴亚难民因暴力事件起诉Facebook,要求赔偿1500亿美元

12月6日,缅甸的一个罗兴亚难民团体在美国提起一项集体诉讼,指控社交媒体平台Facebook促进了针对受迫害的少数群体的暴力,要求Facebook赔偿1500亿美元。Facebook表示,虽然以前没有及时防止错误信息和仇恨言论传播,但事后已采取补救措施,包括在2月1日缅甸政变后禁止军方使用Facebook和Instagram。Facebook曾表示,它受到美国互联网法“第230条”的保护,免于对用户发布的内容承担责任。罗兴亚难民团体则表示,如果Facebook提出“第230条”作为抗辩理由,他们将寻求通过缅甸法律进行索赔。

政策

美国防部拟重组三个关键技术办公室

12月1日,美国防部宣布将把国防部数字服务局、联合人工智能中心及首席数据官办公室重组为首席数据与人工智能官办公室,以简化流程,并为使用人工智能与数据创造出更具凝聚力的方法。根据拟议计划,三个办公室仍保持独立,但都向新办公室报告。此举将为三个办公室提供更清晰的组织结构,帮助其掌握更多数据并应用于人工智能,进而推动联合全域指挥控制工作。

工信部预测2025年中国大数据产业规模将突破3万亿元

11月30日,国家工信部召开新闻发布会,介绍《“十四五”大数据产业发展规划》相关情况。《规划》提出,到2025年,我国大数据产业规模预计将突破3万亿元,年均复合增长率保持25%左右,创新力强、附加值高、自主可控的现代化大数据产业体系基本形成。《规划》就加快培育数据要素市场、发挥大数据特性优势、夯实产业发展基础、构建稳定高效产业链、打造繁荣有序产业生态、筑牢数据安全保障防线等六个方面设定了重点任务,并安排了数据治理能力提升、重点标准研制及应用推广、工业大数据价值提升、行业大数据开发利用、企业主体发展能级跃升、数据安全铸盾共六个专项行动。此外,《规划》还提出加快构建全国一体化大数据中心体系,推进国家工业互联网大数据中心建设,引导大中小企业融通发展和产业链上下游协同创新,支持传统企业开展大数据业务剥离重组。

监管

美国联邦贸易委员会对英伟达公司收购ARM的交易提起诉讼

12月2日,美国联邦贸易委员会(FTC)宣布,已经以反垄断为由提起诉讼,旨在阻止英伟达公司以400亿美元价格收购ARM的计划。FTC认为,这笔交易将会扼杀云计算、数据中心和自动驾驶汽车等各种技术的市场创新,并将“不公平地削弱”英伟达的竞争对手。这起诉讼是英伟达收购ARM交易在监管方面遭遇的又一次打击。此前,英国政府和欧盟委员会已经开始对该笔交易展开深入的反垄断调查。

产业与技术

Meta与亚马逊AWS达成云服务合作协议

12月1日,Meta公司宣布与亚马逊公司云服务部门(AWS)达成合作,将AWS作为其长期战略云服务提供商,扩大对AWS计算、存储、数据库和安全服务的使用范围,以补充Meta现有的本地基础设施。Meta还将使用AWS的计算服务来加速其AI团队的研发工作,并将在AWS平台上运行第三方合作应用。

城市数字化

国务院发文支持北京城市副中心大力发展数字经济,推进智慧城市建设 

11月26日,国务院发布关于支持北京城市副中心高质量发展的意见。意见提出,到2025年,城市副中心绿色城市、森林城市、海绵城市、智慧城市、人文城市、宜居城市功能将基本形成。意见明确,强化科技创新引领,聚焦新一代信息技术、智能制造等领域,实施一批国家重大科技项目和应用示范项目,引导创新链、产业链在城市副中心及周边地区布局,大力发展数字经济。围绕第五代移动通信(5G)网络、人工智能、云计算、大数据、互联网协议第6版(IPv6)等加紧布局数字新基建,在智慧城市、数字乡村建设等领域建成一批示范应用新场景,支持开展科技应用场景沙盒试点。

美国巴尔的摩市计划建设普惠智能网络以缩小数字鸿沟

11月30日,美国巴尔的摩市长办公室宣布,将拨款3500万美元为受公共卫生紧急情况影响最严重的社区和居民提供网络接入方面的救济。其中,首笔600万美元将用于大幅扩大公共互联网接入,以缩小城市中的数字鸿沟。鉴于互联网接入已成为最为关键和基本的公共基础设施,实现网络接入公平成为未来智慧城市的关键内涵之一。巴尔的摩市计划在未来十年间持续投资于在全市范围内建设开放、普惠的智能网络基础设施,以确保每位市民都能平等、便捷的接入互联网。

海量资讯、精准解读,尽在新浪财经APP

人工智能伦理迈向全球共识新征程—新闻—科学网

人工智能伦理迈向全球共识新征程

 

日前,联合国教科文组织(UNESCO)正式发布《人工智能伦理建议书》(以下简称《建议书》),这是关于人工智能伦理的首份全球性规范文书。

作为UNESCO人工智能伦理特设专家组成员,中科院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅参与了《建议书》的起草与修改。

曾毅在接受《中国科学报》采访时表示,“《建议书》是目前全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,将为进一步形成人工智能伦理有关的国际标准、国际法等提供强有力的参考。”

走向全球共识

隐私、安全、公平、对人类的潜在风险……人工智能在飞速发展的同时,也给社会带来了根本性的挑战。

虽然不同国家、政府间组织、科研和产业界已经发布了不少关于人工智能发展、伦理与治理原则,但这些原则并没有形成统一观念,人工智能伦理亟待达成全球共识。

UNESCO总干事阿祖莱在《建议书》发布会上表示,“我们呼吁所有的成员国立即行动起来开始实施这份建议书。民众、企业等全社会都应当行动起来。这项工作已经开始了,20余个国家已经表态当《建议书》被采纳后,将受《建议书》的启发开启评估。UNESCO将推进务实的评估落地工作。”

此次发布的《建议书》的核心是价值观、伦理原则及相关的政策建议、监测与评估。在价值观方面,《建议书》从尊重、保护和促进人权和基本自由以及人的尊严,环境和生态系统蓬勃发展,确保多样性和包容性,以及在和平、公正与互联的社会中共生等4部分进行了阐述。

曾毅认为,《建议书》囊括了针对现代人工智能(人工智能作为信息处理工具和赋能技术)伦理考虑的最重要方面。

例如,虽然大规模数据处理及算力的提升促进了现代人工智能的发展,但也带来了潜在的环境问题。

为此,《建议书》在价值观“环境和生态系统蓬勃发展”部分指出,应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。

此外,《建议书》还考虑了不适用人工智能的场景,并在“相称性与不损害”的原则部分提出,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。

不仅如此,《建议书》在此部分还明确提出人类应当确保在关键领域进行有意义的控制,并确保人类的决策权,并对高风险领域进行了警示。

“和谐共生”价值观被部分采纳

在曾毅看来,《建议书》在一定程度体现了全球不同文化的包容性思想。其中“在和平、公正与互联的社会中共生”的价值观充分体现了来自亚洲和非洲等国专家的共同愿景与贡献。

在UNESCO特设专家组撰写草案期间,鉴于部分国家和政府间组织的人工智能原则强调自身的价值观和利益优先,曾毅提议纳入“和谐共生”的价值观。

在曾毅看来,“和谐共生”的价值观,是倡导人类社会与人工智能技术和谐发展,人工智能赋能人类、社会、生态之间的和谐发展,号召各个国家通过人工智能促进人类命运共同体的构建。

他告诉记者,“和谐共生”的思想在由国家新一代人工智能治理专委会制定的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》中以“和谐友好”等形式和内容体现相似表述,是我国发展人工智能技术,处理技术与社会关系的总纲。

虽然“和谐共生”的提议被来自亚洲和非洲等多国的特设专家组专家及部分政府间磋商代表所赞同,但在随后的环节,由于部分国家代表未能接受“和谐”“人类命运共同体”的提法,随后改为“在和平、公正与互联的社会中共生”,“和谐共生”的核心要义得以部分保留和采纳。

例如,《建议书》在“在和平、公正与互联的社会中共生”的部分强调“每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上”等内容。

曾毅对此感到有些遗憾,“‘和平共生’与‘和谐共生’的意义并不完全相同。‘和谐共生’在和而不同、和舟共济的基础上还有发展的意义,倡导优化共生,而‘和平共生’这种表述难以表达求同存异,谋求发展的意义。”

但他也表示,虽然《建议书》没有直接采纳“和谐共生”的表述,但相关思想得以保留,被各国专家认为是《建议书》中融入非西方价值观的重要体现。

“‘和谐共生’的理念已经作为我国人工智能伦理与治理原则的特色,未来必然会成为中国对世界的贡献。”曾毅表示。

可持续发展的共同愿景

可持续发展目标是联合国各机构力推的全球发展共同愿景,我国发布的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》都将可持续发展作为新一代人工智能的总体愿景和赋能全球人工智能发展的重要途径。然而很多国家在人工智能发展和伦理原则中并没有明确提出可持续性。

因此,在《建议书》原则部分的撰写阶段,曾毅提出,虽然可持续的理念隐含在文本中的若干方面,但作为全球共同愿景,发展人工智能必须赋能可持续发展目标的实现,同时还要密切关注人工智能应用于可持续发展相关目标领域时,是否带来阻碍该目标实现的风险,寻求发展与治理的协同。“‘可持续’应当作为原则明确列入《建议书》。”

最终,该意见被《建议书》不同阶段广泛接受,并在政策部分,特别针对环境和生态系统领域如何通过人工智能赋能实现可持续性给出了具体建议。

实际上,除了参与起草和修改《建议书》,曾毅还在UNESCO组织的区域性专家咨询会上代表UNESCO特设专家组向亚太地区各国政府专家代表宣讲了《建议书》草案,并作为政府间专家磋商的中方专家代表参加磋商。

曾毅告诉记者,起草和宣讲《建议书》时,他从未感到紧张,因为在那个阶段,他的角色更多的是贡献学术观点的独立的学者。但在政府间代表磋商阶段,特别是被称为“成员国中国代表”时,他倍感责任重大。

目前,UNESCO正在依据《建议书》建立伦理评估工具和针对国家人工智能伦理完备指数评估的辅助系统,以敦促和帮助各国落实伦理规范。

在曾毅看来,人工智能的国际协作是通过技术赋能助力实现人类命运共同体,而人工智能伦理与治理的国际交流与协作是确保人工智能国际合作能够达成共识,并持续推进的基石。

“因此,十分有必要推进形成由类似于UNESCO这样的政府间机构、各国政府、学术界、产业、公众紧密交互的多利益相关方人工智能治理体系,通过深度协同扩大共识、避免误解、减小分歧,确保人工智能的全球发展及其治理最终促进人类和生态的整体协同发展。”曾毅表示。

 版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。

期刊发表

 

 

人工智能伦理问题与安全风险治理的全球比较与中国实践 

 

 

 

从全球范围来看,利益相关体已经提出了诸多人工智能治理原则以试图通过“软体系”的方式应对人工智能发展和应用所引发的伦理问题与安全风险。本文指出,人工智能的主体性挑战、代码作为规则重要性的提升以及“黑箱性”的存在构成了以“软体系”应对人工智能伦理问题与安全风险的特殊原因,而推进理念共识、聚焦局部议题、创新治理机制则构成了其具体内涵。虽然现有方案有利于推动人工智能伦理问题与安全风险的治理进程,但其在关键概念上的模糊、具体内容上的缺失或争议以及决策过程的不足,也引导人们产生更多反思。中国近年来在三个方向积极推进并于2021年初形成了《网络安全标准实践指南——人工智能伦理安全风险防范指引》的阶段性成果,该文件界定了人工智能治理的相关主体范围,总结了人工智能伦理问题与安全风险的具体类型,并明确了相关主体所应履行的治理职责。结合全球比较和中国实践的分析,文章进一步对未来人工智能伦理问题与安全风险治理的发展可能提出了三点展望。 

 

 

 

清华大学文科资深教授、苏世民书院院长、清华大学中国科技政策研究中心主任薛澜与合作作者贾开在《公共管理评论》上发表文章题为《人工智能伦理问题与安全风险治理的全球比较与中国实践》。 

 

 

 

 

 

No.1缘起:《网络安全标准实践指南——人工智能伦理安全风险防范指引》的发布及其背景 

 

 

  

 

2021年1月,全国信息安全标准化技术委员会(简称“信安标委”)正式发布《网络安全标准实践指南——人工智能伦理安全风险防范指引》(简称“《指引》”),《指引》是国家层面出台的首个涉及一般性、基础性人工智能伦理问题与安全风险问题,并具有可操作性的指引文件,为我国人工智能伦理安全标准体系化建设奠定了重要基础。  

 

 

近年来,伴随着人工智能技术的快速发展及其在不同领域的普及应用,以推动人工智能“安全、可靠、可控”发展为目标的人工智能合规体系建设也在同步推进。我国初步确立了合规体系建设规划和路线图①,提出了反映各方理念且具有一定共识基础的理念和原则②,也在具体领域制定或修订了针对特定问题的相关标准③。在此背景下,《指引》可被视为新的发展和补充,其既对理念和原则进行了细化,也未局限于特定问题,而是针对人工智能伦理问题与安全风险的共性挑战提出了较为具体的治理框架和行为规范意见。 

 

 

①以《新一代人工智能发展规划》《国家新一代人工智能标准体系建设指南》等文件为代表。  

②以《新一代人工智能治理原则———发展负责任的人工智能》《人工智能北京共识》等文件为代表。  

③包括《信息安全信息安全技术虹膜识别系统技术要求》《信息安全技术基于可信环境的生物特征识别身份鉴别协议框架》《信息安全技术指纹识别系统技术要求》《信息安全技术汽车电子系统网络安全指南》《信息安全技术车载网络设备信息安全技术要求》《信息安全技术智能家居安全通用技术要求》《信息安全技术智能门锁安全技术要求和测试评价方法》等。  

 

 

 

对于《指引》积极意义的肯定,并不意味着人工智能伦理问题与安全风险治理便“一劳永逸”地得到了解决,甚至不一定意味着我们距离问题的解决“更近了一步”。正如阿西莫格鲁等人所警示的,我们或许连“需要什么样的人工智能”这样的目标性问题,都还不甚了了(AcemogluandRestrepo,2020)。因此,在我国以及全球范围当前都紧锣密鼓地推进人工智能伦理问题与安全风险治理之时,我们或许有必要跳出围绕具体风险、原则或条款的斟酌与争论,以更加宏观全局的视野认识我们面临的问题以及解决问题的不同路径,并在此比较反思的过程中做出适宜的选择。本文即基于此视角而展开的围绕全球人工智能伦理问题与安全风险治理研究和实践的综述性讨论,其在方法论上可归于文献综述类研究的“元研究”(meta-analysis)范畴。事实上,与近年来快速涌现的诸多人工智能伦理问题与安全风险治理方案相比,围绕方案起草过程的代表性、方案起草者的利益关联、方案有效性的评估、方案内容的缺陷与矛盾等问题的反思与批判,始终都是该领域为数不多但却未曾间断的重要研究路线之一(Greeneetal.,2019;Hagendorff,2020)。本文可被视为沿袭此类研究并结合中国实践而展开的探索性讨论,希望为大多数关心但并不直接参与制度细节设计的公共管理研究者以及更一般的公众提供一个全球比较与反思的图景。 

 

 

  

本文接下来将从五个部分展开论述。第二部分将对人工智能伦理问题与安全风险治理的问题进行界定,既是明确研究对象,也是对可能存在的不同治理目标进行比较与区分。第三部分将总结当前存在的应对人工智能伦理问题与安全风险治理问题的主要方案,从理念、客体、主体三个方面做出综述性解释。第四部分将梳理针对已有方案的批评,在比较分析中厘清主要的反思视角。在此基础上,第五部分将回到中国:一方面总结我国当前推进人工智能伦理问题与安全风险治理的整体性框架,另一方面也对《指引》的内容特点和重要意义进行解释。第六部分将从未来展望的视角对全文做出讨论和总结。 

 

 

 

 

 

No.2问题:人工智能伦理问题与安全风险治理的独特性  

 

 

在经历自1956年以来的两次发展起伏之后,人工智能技术在当前迎来了第三次发展高潮,并被视为第四次工业革命的标志性技术而得到普遍应用。尽管批评者指出,人工智能不过是硅谷包装的“答案主义”(Sollutionism)意识形态的又一个体现(Morozov,2019),但其“通过脑力劳动的机械化将人类解放出来以从事更有意义活动”的能力(吴文俊,2019),仍然使之在诸多领域体现了一般性技术的变革价值。但与此同时,越来越多的研究逐渐意识到人工智能应用过程中所伴随的治理风险。智能推送算法可能引发的“信息茧房”和极化现象,犯罪风险评估算法体现的种族歧视倾向,人脸识别系统可能构成的全面监控网络,以及就业冲击、舆论操纵、隐私侵害等,都是引发公众关注的典型案例,这也成为推动人工智能伦理问题与安全风险治理的直接动因。尽管到目前为止,各国鲜有出台针对人工智能风险治理的法律法规,但根据德国非营利机构AlgorithmWatch的统计,政府、企业、社会机构、国际组织、学术团体等全球范围的利益相关体已经提出了160多个原则或倡议,构成了人工智能伦理问题与安全风险治理的“软体系”。① 

 

 

 

 

①本文所指治理“软体系”是区别于具有明确规则和约束力、强制力的“硬法体系”而言的,其旨在分析治理风险、提出治理目标、构建治理机制、提出治理方案,可被视为“硬法体系”形成之前的治理共识的达成过程,或者因难以具体、明确地界定不同主体的责任、权利、义务而采取的其他治理进程。

 

 

 

但新兴技术应用结果可能造成个人权利侵害或社会权力结构转移的风险,并不仅限于人工智能,传统治理体系也并不一定不能做出有效应对。例如,技术社会史的研究揭示,条形码和扫码器的应用提升了零售业的供应链管理效率,因此更有利于大型连锁零售商的运营,但这也并不必然意味着权力结构的集中或中小供应商及零售业工人的边缘化。尽管美国形成了沃尔玛式的垄断结构并抑制了供应商和工人的博弈能力,但德国和丹麦却出现了大型零售商与供应商、工人共享规模经济收益的情况;而在英国和法国,情况则是工人共享收益而供应商却在大型零售商的垂直并购中被边缘化(Watson,2011)。换言之,技术创新和应用所带来的治理风险并不必然导致治理体系的变革,差异化的影响结果更多反映了不同文化、制度的历史沿袭,各国在面对相同技术治理挑战时也并非一定会采取类似的应对方案。由此,当我们注意到全球范围内不断涌现的人工智能伦理问题与安全风险治理原则或规范之后,一个更深刻的问题便浮现出来:人工智能作为新兴技术的发展与应用,究竟具有何种不同于其他技术的特点,使之要求治理体系和机制的变革?且这种变革为何又更多以“伦理问题与安全风险治理”的“软体系”面貌出现,而非采取更具约束力的法律规范形式?

 

 

 

较为直接的答案注意到了发展与规制的二元平衡:在新兴技术发展和应用模式尚存较大不确定性的情况下,更具包容性的“软体系”有利于最大限度降低规制对于创新的前置影响。但这仍然只是对于一般规律的总结,并未对人工智能的特殊性做出解释。更多的研究注意到了人工智能作为一般性技术的能力,且与蒸汽机、电力等其他一般性技术不同,人工智能至少在以下三方面体现出独特性。 

 

 

 

首先,人工智能第一次体现了主体性挑战。传统数字系统的设计大都体现为人类借助表达能力而进行的需求界定、流程划分、条件判断等系列工作。与此不同,建立在机器学习基础上的人工智能技术流派的发展,可以基于大量数据的学习而自主总结出数据背后的规律与特征,由此体现出与“人”类似的“表达”能力。迈克尔·波兰尼曾指出,“人类知道的远比其能表达出来的更多”,这也构成了人类表达能力的“波兰尼困境”(Polanyi,2009)。人工智能对此困境的突破,使之具备了一定程度的主体性,并因此使得建立在人类行为因果联系基础上的传统治理体系面临挑战(贾开,2019)。这一变化不仅提升了基于人工智能技术的数字系统的应用范围和深度,同时也带来了诸如智能排序算法结果是否受到言论自由权利保护、人工智能创作作品能否被纳入版权范畴等一系列挑战。 

 

 

 

其次,人工智能的主体性挑战并不仅仅体现为作为技术产出的结果而引发的权利争议,更在于作为影响社会运行重要规则的形成方式的变化。网景公司创始人马克·安德森2011年在评论文章中提出的“软件正在吞噬世界”的观点,深刻影响了硅谷的发展进程,其事实上强化了劳伦斯·莱辛格在20世纪末提出的“代码即法律”的架构理论。在他们看来,数字化转型的过程,也就是代码作为人类社会运行第四种规则的影响力不断提升的过程。人工智能在扩大数字系统应用范围和深度的同时,也提升了代码作为“规则”的重要性,其不仅影响着每个个体的日常生活,也在一定程度上决定了政治选举、社会舆论、资源分配等诸多重大公共问题。但与法律、市场、社会习俗这些传统规则建立在政治合法性或历史合理性基础上不同,代码作为“规则”的形成过程却很难说具有实质或程序上的正当性。这并不意味着代码规则仍然决定于利益团体的博弈,人工智能的技术实现过程决定了代码规则的形成过程是技术逻辑、社会逻辑和制度逻辑的复杂结合。以算法歧视为例,已有研究揭示,之所以搜索引擎算法更大概率上会将黑人姓名与犯罪记录联系在一起,并非设计者有意为之,而是反映了搜索者对黑人是否犯罪这一现象更为关注的社会心理,机器学习基于大量案例习得了这一规律,并通过最大化点击概率的技术目标将其体现并强化(Sweene,2013)。  

 

 

 

最后,人工智能本身技术逻辑及其应用过程存在模糊性,也即“黑箱性”。如果我们在人工智能的所有应用场景都能发现并理解代码规则的形成机制,并及时采取救济或规制措施,那么前述两个独特性挑战也就不足为惧。近年来,数字平台公司不断调整、优化算法以使之符合社会价值要求的做法,便体现了此种思路,其也的确取得了较好效果。但限于商业秘密的保护,我们事实上很难知晓数字公司设计、应用人工智能的基本逻辑;另一方面,更重要的,以算法作为主要体现的人工智能技术已经成为“看不见的手”,并嵌入社会的方方面面,其在不同场景下管理、分类、约束乃至决定整个社会的运行,我们并不能明确界定一个实体对象或工作流程来解释其运行过程。佐治亚理工学院教授伯格斯特形象地将其比喻为“黑洞”:我们能清晰感受到它的影响,却并不能对其内部一窥究竟(Bogost,2012)。 

 

 

 

正是基于上述层次递进的三个方面的解释,我们或许才能更深入地理解人工智能的独特性,并因此理解人工智能治理的必要性。我们之所以重视“软体系”的作用,以及更具体的伦理问题与安全风险,既是出于平衡发展与规制的需要,更重要的原因还在于人工智能主体性挑战背景下,其作为人类社会运行“规则”、运行机制的复杂性和“黑箱性”。技术、社会、制度因素的相互关联,使得人工智能治理难以被置于已有的法律框架之下,在不能清晰界定不同主体责权边界的情况下,唯有通过伦理问题与安全风险治理的“软体系”以促进利益相关体的共同探索,为形成新的治理体系和治理机制准备条件。 

 

 

 

 

 

 

 

No.3方案:现有准则规范的思路与特点 

 

 

 

人工智能伦理问题与安全风险治理的目的在于建构人工智能发展的合规体系,在释放技术创新潜力的同时,通过理念的引导、目标的界定、风险的揭示、底线的探索,形成针对人工智能技术产品或者利益相关体的规范性要求,以使得人工智能的发展应用符合人类社会价值需要。就现有研究或实践的进展来看,大致可从理念、客体、主体三个方面来梳理不同工作的思路和特点。 

 

 

 

首先,聚焦于理念,各方从不同视角出发,均试图对“发展什么样的人工智能”问题做出回答,通过核心概念、目标、价值的界定以影响人工智能技术开发与应用进程。人工智能的主体性以及围绕技术政治性的复杂讨论,均提醒我们人工智能发展路径的多元性及其对社会影响的多重性。正因为此,究竟发展什么样的人工智能,便成为首先要明确且取得共识的重点。尽管“人工智能”概念本身尚存争议①,但这并不影响各方从治理视角对“人工智能”加上“限定语”。未来生命研究所提出的“有益人工智能”(beneficialAI)(FutureofLifeInstitute,2017)、英国上议院提出的“伦理性人工智能”(ethicalAI)(UKHouseofLords,2017)、欧盟人工智能高级别专家委员会提出并为经合组织所沿用的“可信赖的人工智能”(trustworthyAI)(OECD,2019),以及中国新一代人工智能治理委员会提出的“负责任的人工智能”(responsibleAI),均是具有广泛影响力的核心概念,在引导利益相关方思考人工智能发展方向的同时,其具体内涵的解释以及由此所衍生的产品和行为规范要求也引导着具体伦理问题与安全风险的治理。 

 

 

 

例如人工智能研究领域到目前为止也未能对“人工智能”的定义形成共识,主要的分歧之一在于部分研究者认为只要在结果层面重复人类行为即可称为“人工智能”,但其他研究者认为要在过程中也模仿人类的思维模式才能被视为“智能”。 

 

 

 

其次,聚焦于客体,针对人工智能伦理问题与安全风险治理的不同议题,各方均试图提出整体性的分析框架以将复杂议题局部化、模块化。人工智能伦理问题与安全风险治理的挑战性不仅体现为问题本身的复杂性,同时还体现为包含不同议题的多重性。在认识到难以同时解决所有议题的前提下,利益相关方(尤其是私人部门)开始聚焦于具体议题,并提出不同解决方案。一般的研究思路是围绕人工智能从研发到应用的全生命周期,从数据的收集整理、模型的训练验证、应用的评估反馈等各个环节分析不同问题,并提出相应解决方案。关注责任问题的“负责任及可解释的人工智能”(AccountabilityandExplainableAI)(Mittelstadtetal.,2019)、关注公平问题的“平等及歧视敏感型数据挖掘”(FairnessandDiscriminationDataMining)(Gebruetal.,2018),以及关注隐私问题的“设计隐私”(PrivacybyDesign)(BaronandMusolesi,2020),均是典型代表,而谷歌、微软、脸书等大型数字平台公司所提出的“AIFairness360ToolKit”“What-IfTool”“FairnessFlow”等工具,也为上述问题的解决提供了技术方案。同时,以“FATML”(Fairness,AccountabilityandTransparencyinMachineLearning)或“XAI”(ExplainableArtificialIntelligence)网络社区为代表,国际社会已经形成了关注人工智能治理的技术社群,专门针对人工智能伦理问题与安全风险寻找技术解决方案。 

 

 

 

最后,聚焦于主体,讨论不同利益相关方在人工智能伦理问题与安全风险治理中的责权分配关系与结构,以形成能够有效应对不确定性的治理体系和机制。正如公共管理学者Wirtz和Muller所提出的,人工智能伦理问题与安全风险治理不应仅停留于技术层面,一个整体性的人工智能治理框架应同时包含技术层面、组织层面和政策层面(WirtzandMüller,2019)。与此思路类似,近年来围绕新兴技术治理机制和框架的讨论,已经涌现出了诸多新理念,并逐步形成了较为完整的理论框架,对政府监管者、企业、公众等不同主体围绕新兴技术规制议题的责权关系做出了深入分析。敏捷治理(薛澜和赵静,2019)、实验主义治理(SabelandZeitlin,2012)、规制治理(Lobel,2012)都是典型代表,其大都要求在释放基层或一线监管者自由裁量权的基础上,在监管者与被监管者之间形成制约和激励关系,以促使被监管者实行更有效的自我约束。这些理论探讨究竟应该以及在何种程度上应用于人工智能伦理问题与安全风险治理,尚需要更深入的学术研究和案例分析,但其在规范意义上已经成为该领域探索治理机制创新的理论基础。 

 

 

 

 

 

No.4比较与反思:现有方案的争议、缺失与偏差 

 

 

 

人工智能伦理问题与安全风险治理的快速发展并不必然意味着我们走在解决问题的正确道路上,对当前工作的批判性反思仍然具有重要价值,能使我们更清楚地认识到进展与不足。事实上,考虑到不同利益相关方会从各自角度提出相应准则规范,即使包括G20、经合组织、电气与电子工程师协会在内的各类国际组织积极参与其中,围绕人工智能伦理问题与安全风险治理的全球机制也仍然尚未建立,这必然导致相关工作的分散性和不成体系性。面对这样的情况,现有的比较性研究主要从以下三个方面提出了反思性意见。 

 

 

 

第一,围绕关键概念的内涵界定尚存争议,并因此影响了全球治理共识的形成,这集中体现在三点。首先,对于“人工智能”概念的界定存在多重解释,这不仅体现在技术层面结果导向或过程导向的定义争执,更体现在治理层面将其视为产品、过程还是主体对象的范围分歧。其次,已有方案未能就“人工智能伦理”以及“伦理风险”的内涵形成共识。如果说“安全风险”主要与技术安全或产品安全相关并已经有较为充分的讨论,相比之下“伦理风险”则存在诸多不同解释,这既是源于不同社会文化环境对于“伦理”的定义不同,也源于能否及如何在人工智能研发过程中嵌入伦理要求的实现路径的差异。最后,针对更为具体的风险治理要求,不同利益相关体存在不同理解。例如,“可解释性”是大多数准则规范都包含的风险治理要求,但究竟是在源代码、算法模型、训练数据、应用逻辑等何种层面的“可解释”,以及按照何种标准的“可解释”,都存在诸多分歧(沈伟伟,2019)。上述争议既意味着当前人工智能业态的不成熟,也意味着我们对于人工智能伦理问题与安全风险治理进程所应秉持的开放性、动态性态度。 

 

 

 

第二,当前提出的人工智能伦理问题与安全风险治理原则在内容上存在缺失或争议。已有研究的比较性、统计性分析表明,当前提出的大部分准则规范都注意到了透明度、歧视与公平、隐私保护、责任、自由与自治、安全可靠、促进为善、社会保障等方面的风险治理原则,但同时在可持续发展、人机关系、特定领域的限制应用、研究者多元化和中立性要求等方面存在缺失。同时,源于不同利益相关体的分散工作,不同准则规范之间的冲突性和矛盾性日益凸显。例如,普惠发展与隐私保护的内在张力、安全可靠与非歧视要求的冲突,以及准确率、召回率等不同技术指标体现出来的不同公平原则的权衡取舍,都是典型案例(Corbett-Daviesetal.,2017)。导致内容缺失或争议的根本原因在于人工智能伦理问题与安全风险全球治理机制的不成熟,这既包括组织层面协同治理机构的不足,也包括统一的、具有较强共识性的有效性评估体系、标准体系的缺失。 

 

 

 

第三,提出并形成人工智能伦理问题与安全风险治理原则的决策过程不够开放、民主,并可能因此导致结果出现偏差和片面性。这方面的批评首先集中于对“软体系”作用及其动机的质疑。相关的控制实验研究表明,现有的准则规范并不能影响利益相关体在参与人工智能开发和应用过程中的合规行为(McNamaraetal.,2018)。更直接的批评者指出,考虑到相当多的准则规范是由私人部门所提出,其在事实上可能作为抵制政府强监管的借口而流于形式(Benkler,2019)。同时,考虑到起草过程的非开放性,主要体现技术专家理念的准则规范既可能忽略对于现实问题的关注(例如更关注强人工智能的问题,却忽略当前已经普及应用的场景性人工智能风险),也可能因为技术专家团体的男性主导结构而体现出较强的性别差异(例如更偏好理性化、计算化、逻辑化解决方案,却忽略了对于同理心、同情心、情感伦理的重视)

 

 

 

 

 

No.5中国实践:多方并行的努力及《指引》的主要内容 

 

 

 

人工智能伦理问题与安全风险治理的进展和反思展现了该领域的全球图景。我国作为人工智能发展和应用大国,同样将人工智能的治理体系建设置于头等重要的位置,并初步形成了一定框架。相比于全球私人部门、社会组织等非政府团体的积极参与,我国更多体现了政府推动下的协商与建设过程。① 

 

 

 

①我国企业的代表性参与行为包括腾讯发布《智能时代的技术伦理观——重塑数字社会的信任》,百度参与PartnershiponAI等。 

 

 

 

2017年,以国务院名义发布的《新一代人工智能发展规划》(简称《规划》)提出了我国推进、形成人工智能法律法规、伦理规范和政策体系的基本要求和时间路线图。在《规划》要求的指导下,相关工作可被概括为沿着三个方向的并行努力。第一,针对我国人工智能的发展现状和需求,同时结合国际社会的相关讨论与共识,提出基于我国国情的人工智能伦理问题与安全风险治理准则规范,对内指导利益相关方的研发、应用行为,对外体现我国推进人工智能治理的主张并参与全球治理进程。2019年6月,国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》(简称《负责任的人工智能》)即典型体现。除此之外,北京智源人工智能研究院发布的《人工智能北京共识》,以及腾讯公司提出的面向人工智能的技术伦理观,都可被视为我国不同利益相关方在此领域的努力与贡献。第二,聚焦于人工智能伦理问题与安全风险治理的具体问题,形成具有规范意义的技术标准。这又集中体现于2020年国家标准化管理委员会联合四部门共同出台的《国家新一代人工智能标准体系建设指南》,其中明确了伦理安全标准的重要地位,并就概念术语、数据算法、系统服务、测试评估等人工智能研发应用关键环节的标准建设工作做出了重点部署。第三,针对具体领域的人工智能应用问题,相关部门开始起草具有强制约束力的法律法规或政策文件,例如,国家互联网信息办公室出台的《数据安全管理办法(征求意见稿)》《网络信息内容生态治理规定》,以及更为具体的《常见类型移动互联网应用程序(App)必要个人信息范围(征求意见稿)》等文件,均对特定领域人工智能的应用划定了边界。 

 

 

 

在上述三个方向所构成的整体图景中,2021年年初由信安标委正式发布的《指引》可被视为具有承上启下作用的重要文本,其既是对于《负责任的人工智能》原则的发展与细化,同时也为进一步制定人工智能伦理问题与安全风险治理标准准备了条件。就其内容而言,《指引》主要对三个问题做出了回答:对谁提出规范性要求?为什么提出要求?要求什么。 

 

 

 

首先,《指引》遵循人工智能研发和应用生命周期的逻辑,将研究开发者、设计制造者、部署应用者以及用户都纳入了行为规范范畴。研究开发涵盖人工智能理论发展、技术创新、数据归集、算法迭代等相关工作,设计制造是指利用人工智能技术形成具有特定功能、满足特定需求的系统、产品或服务,部署应用则涉及具体工作生活场景的采纳与使用。 

 

 

 

其次,《指引》从失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险五个方面具体总结了人工智能伦理问题与安全风险的类型和当前关注点,明确了规范的对象。失控性风险是指人工智能的行为与影响超出利益相关方所预设、理解、可控的范围且带来负面效果的风险。既有的其他准则规范多以此指代强人工智能的发展风险,但《指引》并未局限于此。事实上,即使是当前人工智能的技术发展水平,其应用过程也可能存在失控风险。社会性风险是指因人工智能的误用、滥用而对社会价值理念造成负面影响,“信息茧房”便是典型体现,其不一定会表现为对具体权利的侵害,但却可能在长期的潜移默化中影响人类社会的价值理念。侵权性风险涉及人工智能对人的基本权利的影响,自动驾驶汽车事故中的人身伤害、人脸识别对于隐私的侵犯、人工智能作品的版权争议都属此类。歧视性风险聚焦于人工智能对于特定群体的主观或客观偏见,并造成了权利侵害或负面影响的结果,这又尤其与当前主流人工智能技术路径极度依赖大数据的特性相关。责任性风险关心人工智能造成负面影响后的责任界定难题,其会影响人工智能发展过程中社会变革成本的公平承担及社会信任等相关问题。 

 

 

 

最后,在提出一般性适用的基本要求的基础上,针对不同利益相关方在不同种类风险治理中的角色定位,《指引》明确了其差异化的行为规范要求,初步体现了敏捷治理的原则和精神。《指引》总结了六条基本要求,既涵盖积极正面的引导性要求(例如人工智能发展应以推动经济、社会、生态可持续发展为目标),也包括底线原则式的价值考量(例如应尊重并保护个人基本权利、在合理范围内开展相关活动等)。就不同利益相关方而言,出于鼓励创新及其风险影响程度和范围有限的考虑,《指引》对于研究开发者较少提出限制性要求,而更多体现为鼓励性、引导性目标(例如应不断提升人工智能的可解释性、可控性);相比之下,设计制造者和部署应用者则面临更多的限制性条款。设计制造者被要求设置应急处置机制、事故处理流程、事故信息回溯机制、救济保障机制等,而部署应用者同时还被要求为用户提供非人工智能的替代选择方案,并建立用户投诉、质疑、返回机制。特别的,对于部署应用者而言,不同领域的风险敏感性存在较大差异,因此《指引》总结了两类特殊场景,并提出了相应规范,这又具体包括将人工智能作为直接决策依据并影响个人权利的场景,以及公共服务、金融服务、健康卫生、福利教育等公民必需的基础性领域。尽管用户并非重点规范对象,但考虑到其在合理使用、风险反馈等方面也具有重要作用,《指引》对这一群体也提出了相应要求。 

 

 

  

需要注意的是,虽然《指引》在中国人工智能治理场域下具有重要作用,但结合第四部分中关于全球比较与反思的内容不难发现,其仍然存在若干局限。具体而言,《指引》仍然未对“人工智能伦理”等关键概念做出明确界定,也未覆盖所有的人工智能伦理问题与安全风险(例如人工智能在一些特殊领域的应用风险),同时也未对不同场景下不同人工智能应用提出更细致化的差异要求(例如在不同场景下人工智能的可解释性要求标准应不同)。就起草过程而言,《指引》按照惯例向社会公开征求了两周意见,但并未在全社会引发围绕人工智能治理的充分讨论,这也限制了各方意见的全面表达。上述不足既与《指引》的文件定位有关,也与人工智能伦理问题和安全风险治理的系统性、复杂性有关,可以说,很难通过一份文件“毕其功于一役”。尽管如此,作为引导各方参与人工智能伦理问题与安全风险治理的指引性文件,《指引》起到了细化宏观理念原则的具体内涵,以及指导未来进一步制定标准规范的衔接作用,同时也体现了我国在该领域的积极、开放的态度,有利于未来我国参与人工智能伦理问题与安全风险治理的全球对话进程。 

 

 

 

 

 

No.6讨论与结论:人工智能治理的未来展望 

 

 

 

《指引》的出台是我国人工智能治理进程中的重要节点,本文以此为契机展开的学理分析和内容解读,并不致力于给出具体的政策建议或治理原则,而是试图为理解利益相关方推动人工智能伦理问题与安全风险治理进程提供整体图景,并对我国近年来的发展成果和思路提供解释与分析。由此我们也不难发现,尽管各方在核心概念和基础原则方面形成了一定程度的全球共识,但考虑到仍然存在的争议、遗漏与协同机制的缺口,要想针对人工智能伦理问题与安全风险问题提出通用性、一般性的治理准则或规范,仍然还有很长的路要走。不过这也并不意味着短期内我们无法实现对于人工智能伦理问题与安全风险的有效治理。结合人工智能全球治理进程的具体发展情况,我们判断未来改革将呈现三个方面的趋势。 

 

 

 

第一,虽然具有全球共识性、约束力的人工智能伦理问题与安全风险治理原则难以在短期内出台,但在“可信赖的人工智能”“负责任的人工智能”等核心概念上,各方可能达成一致。这既源于G20、经合组织等重要国际组织的推动,也体现了重要国家在该领域的意见和态度。第二,尽管人工智能全球治理体系在短期内难以成熟,但具有较高共识度的人工智能伦理问题与安全风险评估框架、标准体系等中微观层面的全球治理机制可能加速形成,这既是源于实践发展的政策“倒逼”需要,也得益于专业组织、学术团体在此方面的丰富工作。第三,考虑到人工智能发展应用进程及风险涌现的紧迫程度,当前侧重“软体系”的治理规范可能逐渐向更具约束力的“硬法体系”转移,尤其是针对具体领域的人工智能应用可能会形成较为明确的治理规则。对于我国而言,在《规划》要求的指导下,人工智能伦理问题与安全风险治理进程必将进一步加速;更多利益相关体的加入与协同也将成为常态,进而共同推动人工智能合规体系的建设与完善。 

 

 

来源:《公共管理评论》 

 

人工智能伦理迈向全球共识新征程

首页人工智能技术正文人工智能伦理迈向全球共识新征程

2021-12-0219:28:51爱云资讯

日前,联合国教科文组织(UNESCO)正式发布《人工智能伦理建议书》(以下简称《建议书》),这是关于人工智能伦理的首份全球性规范文书。

作为UNESCO人工智能伦理特设专家组成员,中科院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅参与了《建议书》的起草与修改。

曾毅在接受《中国科学报》采访时表示,“《建议书》是目前全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,将为进一步形成人工智能伦理有关的国际标准、国际法等提供强有力的参考。”

走向全球共识

隐私、安全、公平、对人类的潜在风险……人工智能在飞速发展的同时,也给社会带来了根本性的挑战。

虽然不同国家、政府间组织、科研和产业界已经发布了不少关于人工智能发展、伦理与治理原则,但这些原则并没有形成统一观念,人工智能伦理亟待达成全球共识。

UNESCO总干事阿祖莱在《建议书》发布会上表示,“我们呼吁所有的成员国立即行动起来开始实施这份建议书。民众、企业等全社会都应当行动起来。这项工作已经开始了,20余个国家已经表态当《建议书》被采纳后,将受《建议书》的启发开启评估。UNESCO将推进务实的评估落地工作。”

此次发布的《建议书》的核心是价值观、伦理原则及相关的政策建议、监测与评估。在价值观方面,《建议书》从尊重、保护和促进人权和基本自由以及人的尊严,环境和生态系统蓬勃发展,确保多样性和包容性,以及在和平、公正与互联的社会中共生等4部分进行了阐述。

曾毅认为,《建议书》囊括了针对现代人工智能(人工智能作为信息处理工具和赋能技术)伦理考虑的最重要方面。

例如,虽然大规模数据处理及算力的提升促进了现代人工智能的发展,但也带来了潜在的环境问题。

为此,《建议书》在价值观“环境和生态系统蓬勃发展”部分指出,应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。

此外,《建议书》还考虑了不适用人工智能的场景,并在“相称性与不损害”的原则部分提出,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。

不仅如此,《建议书》在此部分还明确提出人类应当确保在关键领域进行有意义的控制,并确保人类的决策权,并对高风险领域进行了警示。

“和谐共生”价值观被部分采纳

在曾毅看来,《建议书》在一定程度体现了全球不同文化的包容性思想。其中“在和平、公正与互联的社会中共生”的价值观充分体现了来自亚洲和非洲等国专家的共同愿景与贡献。

在UNESCO特设专家组撰写草案期间,鉴于部分国家和政府间组织的人工智能原则强调自身的价值观和利益优先,曾毅提议纳入“和谐共生”的价值观。

在曾毅看来,“和谐共生”的价值观,是倡导人类社会与人工智能技术和谐发展,人工智能赋能人类、社会、生态之间的和谐发展,号召各个国家通过人工智能促进人类命运共同体的构建。

他告诉记者,“和谐共生”的思想在由国家新一代人工智能治理专委会制定的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》中以“和谐友好”等形式和内容体现相似表述,是我国发展人工智能技术,处理技术与社会关系的总纲。

虽然“和谐共生”的提议被来自亚洲和非洲等多国的特设专家组专家及部分政府间磋商代表所赞同,但在随后的环节,由于部分国家代表未能接受“和谐”“人类命运共同体”的提法,随后改为“在和平、公正与互联的社会中共生”,“和谐共生”的核心要义得以部分保留和采纳。

例如,《建议书》在“在和平、公正与互联的社会中共生”的部分强调“每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上”等内容。

曾毅对此感到有些遗憾,“‘和平共生’与‘和谐共生’的意义并不完全相同。‘和谐共生’在和而不同、和舟共济的基础上还有发展的意义,倡导优化共生,而‘和平共生’这种表述难以表达求同存异,谋求发展的意义。”

但他也表示,虽然《建议书》没有直接采纳“和谐共生”的表述,但相关思想得以保留,被各国专家认为是《建议书》中融入非西方价值观的重要体现。

“‘和谐共生’的理念已经作为我国人工智能伦理与治理原则的特色,未来必然会成为中国对世界的贡献。”曾毅表示。

可持续发展的共同愿景

可持续发展目标是联合国各机构力推的全球发展共同愿景,我国发布的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》都将可持续发展作为新一代人工智能的总体愿景和赋能全球人工智能发展的重要途径。然而很多国家在人工智能发展和伦理原则中并没有明确提出可持续性。

因此,在《建议书》原则部分的撰写阶段,曾毅提出,虽然可持续的理念隐含在文本中的若干方面,但作为全球共同愿景,发展人工智能必须赋能可持续发展目标的实现,同时还要密切关注人工智能应用于可持续发展相关目标领域时,是否带来阻碍该目标实现的风险,寻求发展与治理的协同。“‘可持续’应当作为原则明确列入《建议书》。”

最终,该意见被《建议书》不同阶段广泛接受,并在政策部分,特别针对环境和生态系统领域如何通过人工智能赋能实现可持续性给出了具体建议。

实际上,除了参与起草和修改《建议书》,曾毅还在UNESCO组织的区域性专家咨询会上代表UNESCO特设专家组向亚太地区各国政府专家代表宣讲了《建议书》草案,并作为政府间专家磋商的中方专家代表参加磋商。

曾毅告诉记者,起草和宣讲《建议书》时,他从未感到紧张,因为在那个阶段,他的角色更多的是贡献学术观点的独立的学者。但在政府间代表磋商阶段,特别是被称为“成员国中国代表”时,他倍感责任重大。

目前,UNESCO正在依据《建议书》建立伦理评估工具和针对国家人工智能伦理完备指数评估的辅助系统,以敦促和帮助各国落实伦理规范。

在曾毅看来,人工智能的国际协作是通过技术赋能助力实现人类命运共同体,而人工智能伦理与治理的国际交流与协作是确保人工智能国际合作能够达成共识,并持续推进的基石。

“因此,十分有必要推进形成由类似于UNESCO这样的政府间机构、各国政府、学术界、产业、公众紧密交互的多利益相关方人工智能治理体系,通过深度协同扩大共识、避免误解、减小分歧,确保人工智能的全球发展及其治理最终促进人类和生态的整体协同发展。”曾毅表示。

相关文章魔珐科技受邀参与2023年世界人工智能大会,三款AIGC消费级产品将“首秀亮相”HPECEOAntonioNeri:聚焦边缘、云和人工智能,以创新塑造美好未来AI+行业蓄势待发,“华为云杯”2023人工智能应用创新大赛正式启幕大咖齐聚,2023世界人工智能大会-图技术激活数据要素论坛重磅来袭!重磅政策密集发布支持人工智能,微美全息融合5G+AI迈向新高度拥抱AI,智领未来中国联通&华为人工智能产业发展主题会议在上海召开倒计时3天!OFweek2023(第八届)物联网与人工智能行业年度评选申报即将截止!打造高质量发展新基座!卡奥斯工业大脑国家新一代人工智能平台受瞩目伙伴云受邀参加2023全球人工智能产品应用博览会登上产业之巅,俯览AI前沿——从2023全球智博会看人工智能产业增长极联合信任推出AIGC溯源与认证服务,促进人工智能产业健康发展IGTSolutions推出企业级生成式人工智能平台TechBud.AI以实现卓越客户体验瑞莱智慧加速构建通用人工智能,联合蚂蚁、百度风投等成立多模态大模型公司科大讯飞:用人工智能技术打造智慧家庭安全防线“智能财务洞见未来”2023世界人工智能大会“智能财务论坛”7月6日重磅来袭通付盾升级数信云4.0,利用人工智能、区块链及Web3安全技术助力数据要素市场化

回溯全球AI治理十大事件:人工智能的道德伦理问题

近年来,人工智能技术显著的帮助了社会生产效率的提高,同时也让人类生活变得更加舒适便捷。但伴随着人工智能技术的大规模产业化应用,越来越多的人与人工智能冲突事件尖锐的出现在我们面前。可预期的、可被约束的、行为向善的人工智能治理成为了近人工智能时代的首要命题。

日前,一份《全球AI治理十大事件》的总结受到了各方关注,里面汇集了近两年有关人工智能道德伦理的热门事件。

1.欧盟专利局拒绝从AI提交的发明专利申请事件

“理由是它们不符合欧盟专利同盟(EPC)的要求,即专利申请中指定的发明人必须是人,而不是机器。Abbott同时表示,将基于AI的发明的专利所有权授予AI本身以外的任何一方都是不合适的。最好的方法是将AI视为专利的发明者,然后将AI的人类所有者视为授予专利的受让人,有权做出专利方面的决定或从中受益。

2.智能音箱对主人进行危险行为诱导,建议人类使用者自杀

护理人员DanniMorrtt向智能音箱询问关于心脏的信息,该智能音箱突然表示“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”。

3.“监测头环”进校园惹争议

这些头环可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长,引发争议。对此,头环开发者在声明中回复,脑机接口技术是一种新兴技术,会不容易被人理解。报道中提到的“打分”,是班级平均专注力数值,而非网友猜测的每个学生专注力数值。通过该数据整合形成的专注力报告也没有发送给家长的功能。此外,该头环不需长期佩戴,一周训练一次即可。

123下一页友情提示:支持键盘左右键“←→”翻页

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇