博舍

《人工智能伦理与治理报告》内容解读 人工智能的社会责任,伦理与治理研究方向有哪些

《人工智能伦理与治理报告》内容解读

2021年8月15日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会于云端举行,来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等高校的多位专家学者共聚一堂,围绕人工智能伦理的核心关切和治理方式等问题展开深入研讨。会议由清华大学社会科学学院副院长、计算社会科学平台执行主任孟天广副教授主持。

会上,清华大学数据治理研究中心项目研究员严宇、戴思源和李珍珍共同汇报了《人工智能伦理与治理报告》。报告将人工智能伦理分为安全、透明、公平、个人数据保护、责任等八个维度,通过问卷调查的方式收集了公众针对这些伦理维度的关切情况及治理方式。报告特别关注了算法伦理问题,专门就算法透明、算法公开及数据保护三个方面展开讨论。最后,报告还提出了人工智能伦理治理的“中国方案”。以下为汇报内容:

严宇:美国人工智能监管以发展和创新为先

清华大学数据治理研究中心项目研究员严宇表示,从伦理治国的跨国比较来看,美国的人工智能监管是以发展和创新优先为导向的。

严宇指出,在全球范围内,各国都已经看到人工智能技术对社会的影响,总体可以分为乐观派和悲观派两大派系。乐观派认为人工智能技术极大地促进了经济社会发展;相对来说,悲观派会更多地关注潜在的伦理风险。“由此会产生两种不同的措施,比如乐观派会积极采用战略规划和政策文件来推动人工智能技术的发展与应用;悲观派则会对人工智能伦理开展专项调查,甚至出台具体措施,对伦理风险进行规制。”

严宇在对人工智能伦理治理体系进行跨国比较后表示,美国为了保持其在人工智能领域的全球领先地位,既看重发展,又会考虑伦理风险。“但总体来说美国仍然是以发展和创新优先。”美国非常强调政府和企业、学校、研究机构等社会组织的合作。从顶层设计上来看,联邦政府曾发布行政命令和战略规划,推动人工智能的发展。这些战略规划也提出要对人工智能的伦理问题进行规制,但是其监管仍然是将发展和创新放在更优先的地位。

在严宇看来,不同于美国以发展和创新为先的监管体系,欧盟的监管体系更加严格。“欧盟人工智能企业的数量、规模和影响力虽然排在美国和中国之后,但是它的人工智能监管和治理却在全球有相当的影响力,形成了以强监管为核心特征的治理体系。”

对于邻国日本的人工智能技术发展,严宇表示,日本在试图从中寻找平衡,一方面肯定人工智能的重要作用,另外一方面又要强调重视它的负面影响。日本为此建立了一系列伦理的准则。

严宇介绍道,过去十年,中国的人工智能技术发展速度非常迅猛,近几年中国也越来越关注人工智能的伦理及治理问题。组织和制度方面,中国建立了新一代人工智能治理专业委员会,发布了《新一代人工智能发展规划》,提出要建立规范的伦理体系和法律法规;治理原则方面,形成了《网络安全标准实践指南》,专门提出对人工智能的伦理安全风险开展防范和治理。监管体系方面,中国正在大力推动国家人工智能安全和评估体系。

戴思源:网民关心反垄断时代人工智能相关的数据权利

研究发现,网民关心反垄断时代人工智能相关的数据权利。戴思源的团队从安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严八个维度对人工智能伦理进行梳理,并结合小数据和大数据展开实证分析。小数据主要来自清华大学数据治理研究中心在2021年7月份展开的有关人工智能应用与公众认知的网络问卷调查,共收集2654份,有效数2041份;大数据来自新浪微博的网民讨论数据,提取人工智能相关关键词条共4496万条,另外一个大数据来源是今日头条有关人工智能的1.9万篇文章和相关评论2.5万条。

戴思源表示,网民对各个维度都有所关注,其中在安全、公平、个人数据保护、责任方面,表示关切的人数最多。对比之下,对透明、人类自主和人类尊严这几个维度较少关注。

在人工智能应用的生活场景中,戴思源的团队将其划分为智能门禁、智能家居和信息类APP等几个类别,让受访者对人工智能技术选择各个层面因素进行排序。“总的来看,在所有场景当中,有用性和伦理因素都是最重要的因素,影响受访者是否使用该类人工智能产品。”戴思源说。

同时,戴思源的团队也对社交媒体与资讯大数据展开分析。他们在对新浪微博的数据按上述八个伦理维度进行细分之后发现,微博网民主要关注安全、透明、隐私保护和责任等方面。通过词云图进一步分析,发现在安全维度上,公众主要对人工智能技术的安全性表示关切;透明维度上,公众主要对物联网金融信息公开、特斯拉自动驾驶的数据公开、人工智能技术细节的公开展开讨论;隐私保护方面,公众主要集中于人脸识别等技术的滥用、互联网企业利用大数据杀熟等现象展开讨论;可靠性维度上,公众主要讨论人工智能产品是否能够为用户提供可靠的服务。

戴思源指出,针对不同的企业,新浪微博的网民对于特斯拉的讨论度最高。“这可能与特斯拉在行业的技术领先优势及社会舆情事件密切相关。”另外,阿里、华为等企业的讨论热度也紧随其后。微博网民更倾向于从人工智能所取得的技术进展和革新来讨论企业。

戴思源表示,阿里巴巴反垄断案、抖音诉腾讯不正当竞争案等高点赞文章的主题都同平台垄断等新型市场垄断形式密切相关。“这反映出网民关心新型垄断形式所主导下的人工智能发展以及与此相关联的数据权利。”

李珍珍:较多受访者认为不应公开算法源代码

研究发现,公众对算法公开的支持态度主要集中在算法应用和推广阶段,但较多受访者认为不应公开算法源代码。

李珍珍针对算法的伦理问题提出三个关切点:算法的透明、公平和数据保护。她的团队通过问卷调查收集公众对于算法透明、算法公开的态度,总结公众对算法透明和公开的五个维度:一是人工智能企业应该向社会披露算法的目的、范围和用途;二是企业应该向社会解释算法的步骤、原理和细节;三是企业应该向社会公开算法的源代码;四是企业应该向社会披露算法使用的风险;五是企业应该接受社会对算法开发和应用的监督。

调研结果显示,从整体上看,公众对算法透明和公开持普遍支持态度,绝大部分受访者对于算法的目的、范围、用途、算法风险、算法开发应用这些方面选择比较同意或者非常同意。然而,对于公开算法的步骤、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。

李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产品过程中直接受算法影响的那个阶段。而对算法的设计过程,尤其是源代码,大多数人并不认为应该公开。

在当前算法社会中,用户成为被算法评估的对象。李珍珍指出,我们应该选择适当的措施来保障算法的公平,规避算法歧视。“我们对于算法公平的调查,将有助于科技工作者研发出更具公平原则的算法,这种公平原则需要符合公众对公平概念的普遍理解。”

另外,李珍珍还提到算法伦理问题很大程度上是关注个人数据和隐私保护。团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。

“算法社会的内生风险和伦理问题需要我们在未来进一步规范算法的研发和应用,系统讨论算法伦理及其风险治理,让算法更好地服务人类社会。”李珍珍说。

回顾“人工智能伦理与治理”专题研讨会:

人工智能伦理与治理研讨会成功举办

孟天广:人工智能伦理及其治理要打通科技社群与社会大众

吕鹏:人工智能伦理问题需实证证实或证伪

陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动

李锋:人工智能伦理不能脱离社会经济状况和历史视角

孙宗锋:需研究公众对人工智能伦理关注重心的背后原因

赵娟:人工智能治理框架应处理四对关系

熊易寒:把算法还原成普通人能理解的逻辑

吴超:算法技术问题最根本的解决方法是发展技术本身

贾开:应从技术与社会互嵌角度重视人工智能治理框架

曲甜:从技术与组织关系分析人工智能的治理模式

宁晶:网络用户使用技能和心理效能影响算法接受度

张小劲:算法治理应致力于促发展、防滥用并消除污名化现象

更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。

(来源:中新经纬APP,未经授权禁止转载)

中国关于加强人工智能伦理治理的立场文件

一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。

中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。

二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:

(一)监管

各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。

各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。

各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。

(二)研发

各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。

各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。

各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。

各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

(三)使用

各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。

各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。

各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。

各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。

(四)国际合作

各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。

各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。

中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇