博舍

发展负责任的人工智能 人工智能治理委员会

发展负责任的人工智能

经过三次发展浪潮,人工智能已渗透到人类生产、生活的方方面面,在制造业、交通、教育、医疗、家居、金融等领域得到广泛应用。人工智能的发展及应用带来了诸多益处,但也引发了诸多问题。比如,安全、失业、隐私侵犯、算法歧视等。面对可能存在的风险,“负责任”成为人工智能发展的必然要求。2019年6月,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,明确将“负责任”作为人工智能治理的重要原则。从目前国内和国际范围内发布的关于人工智能的文件、规范及相关领域的理论和实践研究来看,发展负责任的人工智能已成为广泛共识。负责任的人工智能面临两个现实性难题:谁来负责?如何负责?第一个问题是关于责任主体的确定,即人工智能产生的责任由谁来承担;第二个问题指向发展负责任人工智能的途径,即责任主体如何尽责。

人工智能的责任问题

在人工智能的多个应用领域,目前都已产生了实际的责任问题。比如,在自动驾驶领域,已发生过多起由人工智能导致的交通事故。2018年3月,美国亚利桑那州发生了一起优步自动驾驶汽车引发的车祸,导致一名路人死亡。在事后的调查和报道中,关于责任认定存在一定争议。有报道提出,该起事故应归责于软件缺陷,也有报道认为是行人的责任而非车辆的责任。这个案例引出的问题是:自动驾驶领域中交通事故的责任该由谁负责?是通过自动驾驶法案的政府、自动驾驶程序编程人员、汽车制造公司,还是优步、用户、行人?

再比如,在医疗领域,也存在着人工智能应用带来的责任问题。德国康斯坦茨大学学者贾布里(SarahJabri)曾在研究中介绍过一个相关案例:光学相干断层成像(OpticalCoherenceTomography,OCT)技术可以实现视网膜等眼组织的活体三维高分辨成像,用于视网膜病变等眼部疾病的诊断和治疗。在临床实践中,很少有专家能够对OCT进行正确评估,因此经常造成治疗的延迟。针对这种状况,人工智能专家开发了一种利用计算机辅助诊断的深度学习算法,能够评估OCT所做的诊断,并根据治疗的紧急程度对患者进行分类,以减少重症患者的等待时间。测试表明该人工智能技术已达到甚至超过人类专家的表现,并显示出临床适用性。在这个案例中,当人工智能被用于患者优先治疗顺序的确定与实际诊断,并会影响甚至决定治疗的成功与否时,相应的伦理以及责任问题就产生了。医生应在多大程度上依赖人工智能技术?由此产生的诊断失误、医疗事故应由谁负责?是监管主体、研发人员还是临床医师?

传统的交通驾驶领域有一整套关于责任认定和划分的规则;在传统医疗领域,主要关系是医生与患者的关系,其责任也相对容易界定。但是从以上两个案例可以看出,由于人工智能因素的介入,责任主体的界定以及责任主体应如何负责变得更为复杂。

谁来负责

需要明确的是,人工智能在当前的发展水平下还不能作为责任主体。尽管目前关于人工智能是否具有主体地位仍存在争论,但现在的人工智能作为技术人工物,本质上仍是人类为了达成某种目标而制造的工具。人工智能基于数据和算法形成判断并作出选择,具有自动性但不具有自主性,具有行动能力但不具有行动意识、思维能力,因此无法成为责任主体。

因此,当讨论人工智能的责任问题时,实质上讨论的是人类的责任。在全国信息安全标准化技术委员会秘书处2021年1月发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》中,提出了四大责任主体:研究开发者、设计制造者、部署应用者及用户。在《新一代人工智能治理原则——发展负责任的人工智能》中,提出了共担责任的原则,涉及“研发者、使用者和受用者”几个主体。尽管不同文件中所界定的责任主体不完全相同,但可以明确的是,人工智能的责任主体不是某个单一群体,而是多元行为主体。

由于太多行为主体参与到人工智能技术的研发、制造与使用中,可能会导致具体责任难以认定及责任主体相互推诿的问题。如荷兰马斯特里赫特大学学者韦尔伯斯(KatinkaWaelbers)所言,“自然科学家经常声称他们只是开发知识,实际应用不在他们的责任范围之内。工程师和工程公司认为他们的设备没有问题,并以此来推卸责任。在他们看来,技术的使用(或滥用)才是问题的根源。而用户则倾向于声称自己缺乏能力:一个普通消费者怎么会知道技术的影响呢?即使有了知识,个人还能做些什么?他们经常指出政府应该承担责任。然而,西方政府机构的行动往往落后于技术的发展”。在人工智能责任问题上存在的这种困境,会引出发展负责任的人工智能所要回答的第二个问题:如何负责?

如何负责

要解决如何负责的问题,各个责任主体需明确并承担起相应责任。综合考虑上文各文件中关于责任主体的界定,可以将责任主体划分为监管者、研发者、生产制造者和使用者。

监管者。这类主体主要指政府部门,也包括参与人工智能监管的非政府机构、组织和团体。从目前世界范围来看,各主要国家的政府机构都相继发布了人工智能发展报告纲要,制定了相应国家政策和发展战略,对人工智能发展进行了伦理监管。在我国,国务院于2017年7月印发了《新一代人工智能发展规划》,国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部五部门于2020年7月联合印发了《国家新一代人工智能标准体系建设指南》,为人工智能重点发展方向、技术研究标准体系建设进行顶层设计,提供指导方案。人工智能处于飞速发展之中,政府及相关组织团体需要准确把握人工智能发展大势,为人工智能发展制定更具前瞻性的标准体系、管理规范,持续跟进领域内最新动态,并对研发、制造、使用等环节进行监测和管理。

研发者。这类主体是指从事人工智能理论创新和技术研发的组织或个人。人工智能所要遵循的伦理原则、价值与标准需要在研发环节置入。由于人工智能的行为及功能由算法决定,研发主体需要充分考虑其研发成果可能导致的风险,明确人工智能需要遵循的人类价值观和伦理规则,如公平、安全、透明与多样性等。其中透明原则是发展“负责任”人工智能的基本要求。因为,在“黑箱”情况下,主体很难承担责任。另外,人工智能技术不是独立于社会而存在的,研发主体需要考虑人工智能发展的社会文化环境,并考虑价值设置的优先等级,如我国在人工智能发展中要求重视集体利益、社会稳定等。

生产制造者。这类主体是指从事人工智能产品生产制造的组织或个人。国家标准化管理委员会发布的《人工智能标准化白皮书(2018版)》将人工智能产品界定为“人工智能领域的技术成果集成化、产品化”,并将人工智能产品分为智能机器人、智能运载工具、智能终端、自然语言处理、计算机视觉等类型。在这些人工智能产品的生产中,生产主体应严格遵守人工智能领域的法规和行业标准,确保所制造的产品符合社会及人类利益;充分评估产品使用中可能存在的风险,并设置相应的应急机制;保证产品的可解释性和可说明性,并为使用者提供关于产品功能、使用方式及风险应对等方面的明确信息。

使用者。这类主体是指在各种情况下使用人工智能技术产品的组织或个人。使用主体应具备使用人工智能所要求的基本知识和能力,能够正确、规范使用技术产品,且不能利用人工智能实施任何有害他人及社会的行为。为了使用主体更好地承担其主体责任,需要普及人工智能基础知识教育。这既是使用主体承担责任的基本要求,也符合其他伦理原则(如公平、反歧视等)的要求。

以上对责任主体及各主体所要承担责任进行了概要分析。在具体实践中,需要在人工智能发展的总体框架及基本原则的指导下,根据不同领域内人工智能的发展阶段、应用场景、使用特征等分门别类地进行更细化的讨论和研究。比如,在自动驾驶领域,相关研究指出汽车厂商应是主要责任方;在医疗领域,除了上文提到的各主体,还涉及医疗机构中的专业评估组织等。

发展负责任的人工智能,需要构建相应伦理治理原则。但我们不能仅停留在对原则、规范的探讨层面,还需要各个责任主体的合作和参与。只有各方形成合力,负责任的人工智能才有实现的可能。

(本文系国家社科基金重大项目“人工智能伦理风险防范研究”(20&ZD041)阶段性成果)

(作者单位:同济大学马克思主义学院)

来源:中国社会科学网-中国社会科学报作者:卢卫红

[责编:战钊]

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

全球人工智能治理呈现三大趋势:趋实、趋严、趋细―数据中心 中国电子商会

摘要:全球人工智能发展进入新阶段催生了越来越多的应用场景,数据安全、隐私保护、技术监管等成为人们常议的热度话题,世界范围内引导AI向善的法律或规范也逐渐完善,为研究全球十大人工智能治理事件提供了更多权威参考标准。

全球人工智能发展进入新阶段催生了越来越多的应用场景,数据安全、隐私保护、技术监管等成为人们常议的热度话题,世界范围内引导AI向善的法律或规范也逐渐完善,为研究全球十大人工智能治理事件提供了更多权威参考标准。人民智库与旷视AI治理研究院第二次成立联合课题组,并邀请中国人工智能产业发展联盟(AIIA)作为课题支持单位,组织相关领域权威专家学者和企业代表,以《新一代人工智能伦理规范》中提到的六条原则为遵循,从理论价值、实践价值、新闻价值、研究价值等四个评价标准共同开展“2021年度全球十大人工智能治理事件”遴选、评议,力图从喧哗的舆论声音及理性的专家点评中透析出AI治理未来发展趋势,研判AI在各领域、各场景应用的新空间、新作为,使其可控可靠可信服务于人类对科技改善生活、增进福祉的美好愿景。

打开APP阅读最新报道

中国信息通信研究院副总工程师、中国人工智能产业发展联盟副秘书长王爱华:2021年是全球人工智能治理极具实质性突破的一年。纵观全年的治理事件,全球人工智能治理呈现出三大发展特点。一是治理“趋实”。国际国内标志性立法进程事件都反映出人工智能治理向更具实质性的监管落地。二是治理“趋严”。全球针对人工智能已经开始深化严格治理。三是治理“趋细”。

人工智能治理的工作重点细化于典型场景中,且特别聚焦于自动驾驶、智慧医疗等领域。未来,将抽象的人工智能伦理原则、法律规范转化为具体实践,落实到技术、产品和应用中去,是产业界亟待加快推进的工作。中国人工智能产业发展联盟也将继续联合产业力量,探索可信人工智能的实践路径,推动人工智能产业健康有序地发展。

清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正:纵观2021年度全球十大人工智能治理事件可以看出:人工智能治理已经成为全球共识,且已从理念层面进入到建章立制、落地实施的阶段。特别是在2021年中国发布了《数据安全法》《个人信息保护法》等重要的法律法规,在全球范围内,欧盟、美国以及联合国等组织也发布了关于人工智能的相关伦理道德规范、一些重要的法律法规,这意味着人工智能的应用已进入到一个普及阶段,社会各界人工智能应用方面的制度规范迫在眉睫。

除了自上而下的建章立制,自下而上的基于应用主体和用户选择的参与,也成为人工智能治理的一个重要特点,体现出“多方参与、协同治理”的理念。在新的一年,人工智能治理会进入从建章立制到落地实施的阶段,这需要更多针对细分场景的细则和指引标准,进而推动相关法律法规的实施。

华东政法大学人工智能与大数据指数研究院院长高奇琦:2021年的全球十大人工智能治理事件有三个特点:第一是无论在国家层面,还是在国际组织层面,都出现了较多的重要伦理和法律规则,AI治理受到社会广泛关注。从评选出的2021年度全球十大人工智能治理事件来看,至少有5个事件与人工智能治理的伦理和法律相关。这既包括在国家层面的两部重要立法,也包括像联合国教科文组织发布全球性人工智能伦理及治理规范。

第二是反映了人工智能仍然在加快应用。事件至少有两项内容是关于加快人工智能应用的,包括这里的自动驾驶汽车2021年在英国的合法化,以及脑机接口(人脑芯片)或明年使用等新闻。第三则是反映了社会大众关于人工智能治理的渐趋自觉的趋势。如在美国新提案,赋予社交媒体用户禁用算法的权利。同时中国人脸识别第一案,尽管案件赔偿的金额并不多,但还是有很强的标志意义,即社会大众对于人脸识别其实有一些伦理和价值方面的判断,这反映了社会大众的认知提高。

环球时报副总编辑谢戎彬:从这次的十大人工智能治理事件,可以看出有三大特点:一是国内高度重视人工智能治理领域的法律法规建设,这基本上与国际最先进的国家与地区同步。二是非常重视有益于民众福祉的重大技术事件。技术没有善恶之分,如果能借助算法、法律、法规、道德等多维度,让他们更好地为人类谋福利,那将是一个非常重要的方向。三是本次评选也关照到新技术对于一些特殊群体带来的帮助,比如人脑芯片的应用或为瘫痪者带来希望,人脑芯片脑机接口等技术不仅国外在加速落地,中国的多家科研院所与高科技企业也在关注。

京东探索研究院院长、澳大利亚科学院院士陶大程:2021年全球AI治理的一系列重要事件,均反映出当前社会、产业界对AI可控可靠、透明可释、隐私保护等方面的急切诉求。从单个事件来看,例如对自动驾驶事故的顾虑、责任划分的担忧,反映出人工智能因为缺乏可解释性,在更广泛的应用上受到了限制。从综合的角度,或者说长期发展的角度来看,人工智能基础理论创新的缺失会对其后继发展带来极大隐患。业界对可信、安全、隐私保护等方面增加关注,是对一系列隐患的回应,也是对潜在风险的预先规避。

全球AI治理事件反映出,增强用户信任、发展可信人工智能是当前的一项共识,不仅为人工智能技术发展和转化应用所面临的一系列问题及时地提供相对可行的解决方案,也是人工智能伦理的一项核心而长期的工作。

科大讯飞(002230)高级副总裁江涛:2021年是人工智能快速发展的一年,各种人工智能应用百花齐放,社会对人工智能进一步应用会不会存在技术滥用,会不会存在AI伦理问题,也有更多地思考和讨论。我们相信未来人工智能的应用不会取代人类,而是在人和机器的协同中不断让人的生活更美好,让整个社会的运行更高效,未来AI前景光明。

我们相信随着技术的不断发展,这个技术可以应用的场景会越来越多。我相信有价值的AI,不是为了让这个社会更焦虑,让年轻人更沉迷,而是要让用户感受到更多的温暖,让用户有获得感。只有这样的AI才是有价值的AI。未来AI客服、AI经理、AI店长、AI演示员等,越来越多的人工智能应用场景会出现,让我们切切实实地体会到人工智能在整个运行中为我们提升社会运行的效率,让人工智能建设美好世界的伟大理想会一步一步地变成现实。

旷视科技联合创始人兼CEO印奇:这是第三年评选全球十大人工智能治理事件,相比而言,2021年一个显著趋势是与人工智能治理、算法治理、数据治理相关的法律法规更加完善,对人工智能技术和应用的细分场景给出了更精细的标准和引导。这些举措对整个AI行业的可持续发展来说是重大利好。此外,AI在增进人类福祉方面继续向前、向深发展。

作为全球科技竞争的关键领域,AI不仅需要在技术创新和应用落地上下功夫,也需要在治理上使力气。人工智能既是我们创造美好生活的重要手段,也是需要妥善治理的对象。AI治理的向上向善发展需要理性的关注、深度的研究、建设性的讨论和坚持不懈的行动,也离不开所有AI从业者和社会各界的多元共治、共同努力。

2021年度全球十大人工智能治理事件与专家观点

事件一、强化数据安全,相关法律法规陆续发布

《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)2021年11月1日正式实施;《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》2021年8月1日正式实施;《中华人民共和国数据安全法》(以下简称《数据安全法》)2021年9月1日正式施行;《网络数据安全管理条例(征求意见稿)》发布。(来源:综合自经济参考报、科技日报、央视新闻客户端、中国新闻网等)

魏凯中国信息通信研究院云计算与大数据研究所副所长

2021年,备受关注的《数据安全法》与《个人信息保护法》出台,与《网络安全法》共同形成了数据治理法律领域的“三驾马车”,标志着我国数据安全法律架构已初步搭建完成。在此基础上,聚焦重点行业、新兴技术的数据安全法律法规和司法解释也在2021年密集出台,充分体现了我国在数据立法方面的前瞻性和创新性,为加快培育数据要素市场、保障数字经济健康发展奠定了坚实的制度基础。

刘亚单数字广东网络建设有限公司产品研发部总经理

数据安全事关国家安全和经济社会发展,提升数据安全治理能力是我们在新形势下需要着力解决的突出问题。我国首部针对个人信息保护的专门性立法、我国第一部数据安全领域的专门法律等相继发布生效,共同构成了我国数据安全保护领域的基本法律框架,使数据安全保护在上位法层面得到完善,为数据安全释放价值提供了合规指引。标志着我国数据安全立法保护开启了历史新篇章,为明确数据产权与利用规则奠定了基础,推动了我国公共数据共享、开放和利用走向“规范化”发展道路,也是全球个人信息法治发展的重大里程碑,对隐私计算等人工智能技术商业利用的合规性操作具有重大意义。

事件二、欧盟发布针对人工智能技术的监管法规草案,呼吁禁止公共场所人脸识别

2021年4月21日,欧盟首次发布针对人工智能技术的监管法规草案。草案中,AI的一系列应用范围都受到了不同程度的限制。当地时间10月6日,欧盟通过禁止警方在公共场所使用面部识别技术的决议,并对其使用AI进行预测性警务活动实施严格限制措施。(来源:综合自AI科技评论、51cto等)

程祥北京邮电大学计算机学院副教授

在数据保护和人工智能技术的监管方面,欧盟一直前瞻性地走在立法实践的最前端。2018年生效的《欧盟数据保护通用条例》在世界范围内率先定义了个人数据所有权的规则,推动了数据隐私保护技术在业界的大规模应用,限制了企业为追逐经济效益而对用户隐私的侵害。而欧盟2021年4月针对人工智能技术的监管法规草案更是立志于为符合伦理的人工智能技术的发展铺平道路,并通过禁止“无差别地大规模监控”来进一步地保护个人隐私。这些法规的确立揭示了人工智能技术的应用与公民个人隐私之间的矛盾。因此,与数据挖掘和机器学习相关的隐私保护技术亟待发展,以支撑相关法规的落地实施。

杨丹辉中国社会科学院工业经济研究所资源与环境研究室主任、研究员

禁止公共场所人脸识别,不仅反映出欧盟对AI领域风险防控的高度重视,实则也是其对新一代信息相关新技术新模式新业态的一贯立场,这种相对保守的思路,一方面集中体现了欧盟注重技术治理的“根部”问题及其强大的制度建设能力;另一方面则是欧盟在AI技术创新水平的真实状况。因此,欧盟利用自身优势,做制度和法规的构建者,并以此争夺治理的话语权。针对欧盟的这一规定,一些互联网巨头公开反对禁止人脸识别的“一刀切”做法,认为应积极探索更加灵活、富有弹性、平衡效用与安全的监管方式。

事件三、国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》

2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。(来源:科技部)

何宝宏中国信息通信研究院云计算与大数据研究所所长

2021年,发布《新一代人工智能伦理规范》,细化落实《新一代人工智能治理原则》,是我国深化人工智能治理工作的又一重大举措。人工智能技术以数据、算法为驱动,发展速度迅猛,正在深刻改变人类的社会生产和生活模式。但人工智能技术的滥用也不断冲击社会伦理底线、侵犯个人权益。所以,既要大力发展人工智能,又要高度重视风险和挑战,科学处理好发展和治理的关系,发展可信的人工智能。

王晓飞天津大学智能与计算学部教授

本事件代表从国家到社会各个层面都意识到了人工智能伦理的重要性。在AI还未全面深入到各行各业之前,将能够预想到的伦理问题进行梳理和规约,是非常及时且正确的一个做法,未来随着AI算力和算法的逐渐变强,伦理规范也要与时俱进、逐年升级,从根本上奠定“AI服务人类,AI服务社会”的基调。

事件四、联合国发布全球性人工智能伦理及治理规范

世界卫生组织于2021年6月28日正式发布“世界卫生组织卫生健康领域人工智能伦理与治理指南”。联合国教科文组织2021年11月25日举行新闻发布会,介绍该组织正式通过的首份人工智能伦理问题全球性协议。(来源:综合自联合国教科文组织、科技日报等)

陈跃红南方科技大学人文社会科学学院院长、人文中心主任

人工智能正在被用于提升治疗的速度和精准度以及疾病的筛查,协助临床护理,加强卫生研究与药物研发,支持疾病监测,疫情应对和卫生系统管理等多种公共卫生干预措施。但是随之带来的法律和伦理治理挑战也日益紧迫。世界卫生组织这一历史性文本试图协调共同的价值观和原则,用以指导建设必需的法律框架来确保人工智能的健康发展。

郭继承中国政法大学思政研究所副教授

我们应该聚焦人工智能发展的两个基本方面:一是人工智能的发展会怎样影响人类文明;二是人类在法律和伦理层面如何规范人工智能的应用,使之真正造福人类。第一个问题涉及的是人工智能的发展和应用情况,聚焦工具能力;第二个问题涉及到如何规范人工智能的应用,聚焦的是如何正确驾驭工具为人类所用。一言以蔽之,工具能力和如何驾驭工具能力,这是我们面对人工智能发展需要正视的基本问题。

事件五、强化算法综合治理,防范算法滥用风险,用户可选择关闭算法推荐

2021年9月,九部委印发《关于加强互联网信息服务算法综合治理的指导意见》,要求防范算法滥用风险,维护网络空间传播秩序、市场秩序和社会秩序。2021年12月31日,国家互联网信息办公室等四部门联合发布《互联网信息服务算法推荐管理规定》。(来源:综合自国家互联网信息办公室、人民日报、新华社等)

郭兵浙江理工大学法政学院特聘副教授、杭州长三角大数据研究院副院长

当前,算法推荐等技术已经被广泛应用于电商平台、新闻平台、视听平台、社交平台等诸多应用场景中。算法推荐等技术为网络用户和网络平台带来便利和经济利益的同时,也引发了一系列新的法律问题。如何平衡好算法推荐等技术的创新发展与安全风险,成为了算法治理的一大难题。无论是《关于加强互联网信息服务算法综合治理的指导意见》,还是《互联网信息服务算法推荐管理规定》都是应对算法滥用风险等难题的有益制度探索。

张凌寒北京科技大学法学院副教授、国家人工智能伦理与道德标准小组成员

2021年堪称中国算法治理元年。2021年伊始算法进入监管视野,监管部门展开系列算法执法活动。世界第一部系统性、全面性规制算法的法律文件《算法推荐管理规定》出台实施。《指导意见》宣布我国将在三年内建立起算法综合治理体系。欧盟和美国在数据保护立法领域走在了中国之前,算法规制方面中国则当仁不让地开世界先河。我国的算法治理体系以信息安全、市场竞争秩序和消费者权益保护为指导思想,《算法推荐管理规定》则确立了算法提供服务者的算法全生命流程监管责任,并构建了用户权益,尤其是未成年人、老年人和平台劳工等社会弱势群体的保护制度。2021年的算法综合治理活动与相关立法,使得我国率先建立了世界上最为完备的囊括数据安全、个人信息保护和算法安全的互联网治理体系。

事件六、自动驾驶汽车2021年或在英国合法化

英国《卫报》报道,英国将推行计划,允许安装自动车道保持系统(Alks)技术的新车型在没有司机插手的情况下上路行驶。英国交通部长麦克莱恩(RachelMaclean)表示,这是“英国安全使用自动驾驶车辆的一大进步,它使未来的出行更加绿色、便捷和可靠”。(来源:51cto)

宁阳华北电力大学教授

“自动驾驶汽车或在英国合法化”入选2021年全球十大人工智能治理事件,引起各方高度关注。这一方面标志着自动驾驶技术越来越走向成熟,它可能使未来出行变得更加绿色、便捷和可靠,并将促使道路交通和商业保险等相关法规的重新修订,另一方面也会增加人们对于自动驾驶安全性的担忧和丧失驾驶体验感的顾虑。但不管对其作出何种评价,这无疑是一项崭新的技术革命,自动驾驶市场前景广阔,必将成为科技巨头角逐的下一个行业蓝海。

王飞跃中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任、研究员

对于开放场景下的无人驾驶,欧美在法律制定、标准及政策等方面比中国更加灵活,而中国则因为对监管、人权和安全更加看重,目前仍处于“道路测试”或者“试运营”阶段。但在提升行业智能化水平等需求的推动下,中国在封闭或半封闭场景(如矿区、港口等)正在逐步落地无人驾驶,并已从技术上实现无安全员。通过平行驾驶,让人工系统对真实世界车辆和道路建模,构建软件定义的车辆及车路系统,同时建立控制计算中心,对真实数据及虚拟数据进行联合优化,以虚实结合的方式保证无人驾驶的安全性,加速无人驾驶的商业化和规模化落地。

事件七、美国新提案将赋予社交媒体用户禁用算法的权利

国外媒体报道,美国众议院一个由两党议员组成的小组提出一项法案,要求Meta旗下Facebook和Google等互联网平台允许用户查看非算法选择的内容。共和党众议员巴克在一份声明中表示:“消费者应该有权选择如何使用互联网平台,而不必受到由特定用户数据驱动的秘密算法操纵。”(来源:TechWeb)

张军平复旦大学计算机科学技术学院教授、博导

社交媒体用户在使用互联网平台获得便利的同时,也有可能在不知情的情况下泄露自己的隐私。因此,明确赋予社交媒体用户禁用算法的权利,本质上就是在保护公民的隐私。

事件八、AI增进人类福祉新方向:AI干预自杀、AI手语主播、AI气候预测

中科院心理所研究员朱廷劭通过AI算法开发了自杀意念识别模型,并组织志愿者团队给予干预和救助。央视新闻联合百度智能云打造的总台首个AI手语主播正式亮相。此外,科大讯飞、爱奇艺等企业均先后推出善用手语表达的仿真AI主播。世界地球日当天,达摩院与南京信息工程大学、国家气候中心等联合举办业界首个AI气候预测大赛,AI首次预测未来两年气候。(来源:综合自凤凰网、科技日报等)

潘天群南京大学哲学系教授、博导,南京大学科学技术与社会研究所所长

当代社会有抑郁等心理障碍的人越来越多,因心理问题而自杀的人也越来越多。在网上“树洞”进行倾诉是心理障碍者缓解压力的一个重要渠道。该软件的应用及推广,在其他手段的配合下,能够阻止更多意图自杀的人。当然该软件需要弥补其先天的伦理缺陷:网上倾诉是个人隐私,基于“树洞”的自杀干预本身意味着“树洞”本身不是“黑洞”。该软件公益性强、社会价值巨大,也意味着基于网上的资源可以开发出各种具有公益价值的软件。

江涛科大讯飞高级副总裁

AI主播技术本质是以情感贯穿从文本语义到语气、到面部表情等的后台逻辑,在虚拟世界中打造一个真实的助手或合作伙伴。该技术在受到火热追捧的同时,也面临严峻的技术挑战,如更多视频融合元素、虚拟人情感、丰富虚拟人技能、场景化主题、情感化决策融入虚拟人设计中等。期待在不久的将来,拓展出更多领域的虚拟人落地应用,实现虚拟人的“面对面”互动交流、业务咨询、智能问答、服务导览等,让人们切实体会到“人工智能建设的美好世界”。

事件九、人脑芯片或2022年使用,瘫痪者迎来希望

当地时间2021年12月7日,在《华尔街日报》CEO理事会峰会上,马斯克表示其脑机接口技术公司Neuralink研发的微芯片装置有望2022年植入人类大脑,为瘫痪者带来希望。(来源:武汉晨报)

唐磊中国社会科学院政治学所研究员,中国社会科学院大学政府管理学院副院长

脑机对接技术是科幻小说、电影中被反复设想的场景,是突破人的极限的关键一步。目前,脑机接口技术正处于第三个阶段――技术爆发阶段。医疗健康领域是脑机接口最初、最直接和最主要的应用领域,也是目前最接近商业化的应用领域。这将为人类带来巨大福祉。但是,脑机接口在军事领域如果实现“替代”和“增强”方向,就可能给人类带来巨大灾难。技术进步不以人的意志为转移,潘多拉盒子一旦打开,人类自身能否完美控制技术服务人类的方向,还是一个未知数。

李金龙招商银行(600036)人工智能实验室主任

脑机接口的应用前景广阔,可以为瘫痪者带来希望,也可以提升在VR、元宇宙等数字场景下的玩家体验。通过脑机接口技术,我们可以将大脑信号转换成数字指令,不仅可以延伸在物理世界的操作能力,同时也可以更加自然地体验虚拟世界。而微芯片的研发,使该技术更加容易被使用,从实验环境走向用户市场。但是,人类对自身大脑的研究还有很长的路要走,对大脑认知机理也缺乏充分的理解,因此脑机接口技术的使用还需谨慎,特别是植入芯片的潜在风险需要多方考量和验证。

事件十、人脸识别第一案在浙江省杭州市中级人民法院迎来终审宣判

2021年4月,“人脸识别第一案”在浙江省杭州市中级人民法院迎来二审判决:判决维持杭州野生动物世界赔偿郭兵合同利益损失及交通费共计1038元;删除郭兵办理指纹年卡时提交的包括照片在内的面部特征信息,以及指纹识别信息;驳回郭兵的其他诉讼请求。(来源:综合自新京报、钱江晚报等)

石霖中国信息通信研究院云计算与大数据研究所人工智能部副主任

近年来,人脸识别技术创新发展,被广泛应用于公共安全、金融支付、交通出行等领域,也暴露出仿冒攻击、信息滥采、数据泄露等问题,屡屡成为社会焦点。“人脸识别第一案”终审判决之后,我国颁布法律规定对包括人脸信息在内的生物识别信息进行专门性的保护,体现了我国重视个人信息特别是生物识别信息保护的态度和决心。中国信通院云大所也紧跟热点,发起成立了“可信人脸应用守护计划”,重点针对人脸识别技术安全、人脸信息处理合规,联合各方共同探索可信人脸应用范式,促进人脸识别的有效治理和产业健康发展。

刘伟北京邮电大学人机交互与认知工程实验室主任、科技委人机融合智能组首席科学家

大数据让生活越来越方便,但任何技术都不应背离以人为本的原则。“人脸识别第一案”体现了个人信息主体对于个人信息保护关注度的提升,社会公众对于人脸识别信息的重视度日益增加;也体现了司法层面对于个人信息的保护,已充分关注到企业收集使用个人信息必须遵守“合法、正当、必要”三原则;同时也为企业敲响了警钟,提醒企业在收集使用个人信息的业务中应当更加注重合法合规,防止因处理个人信息不当造成企业风险,防止因此陷入民事诉讼或行政处罚乃至牵涉到刑事责任。

特别声明:转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008900668邮箱:service@cecc.org.cn

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇