博舍

人工智能伦理规范难题如何走出困境 人工智能伦理道德问题具体指什么内容和方法

人工智能伦理规范难题如何走出困境

“人工智能可谓是21世纪最有前景的新兴技术之一,其在自动驾驶、语音识别等方面已经取得了诸多重大突破,但在其商业化应用过程中也出现了不少意外的负面后果,其中浮现出的人工智能伦理风险,为技术健康持续发展和商业化落地带来了新的挑战。”

路易斯维尔大学罗曼(RomanYampolskiy)教授发表的《人工智能和网络安全:人工智能的失败》中列举的人工智能失败案例中,除了我们熟知的特斯拉自动驾驶事故,还有一类特别的“道德”事故,像谷歌搜索中出现的黑人与色情、暴力信息相关联、保险公司利用脸书数据预测交通事故率等失败案例,让人工智能引发的道德风险开始引起越来越多人关注。

人工智能道德风险归因于人类认知能力局限

坚持“技术工具论”的人会说人工智能不过是个产品,怎么能具有伦理属性,而还有一部分被称为“技术实体论”的人也坚持说人工智能有能力也有权利具有自主意识和情感。不论孰是孰非,争论本身就代表着伦理道德风险的存在。

人工智能反映出的道德隐患可以从两方面归因。第一可以归结为人工智能系统在算法设计和学习阶段的错误,第二可能源于人工智能技术结果难以预见和难以以人力量化评估的问题。但究其本源还是人类的有限理性所致。

人类自身认知能力的限制,使人工智能越来越近人甚至在某些方面远超人类时,人类理性已经开始滞后于人工智能的发展速度。最终引发了对人工智能的担忧和道德批判。

而在算法的世界里,人工智能没有能力担忧,或许他们也并不感到担忧,甚至在他们“看来”,人类的某些道德是多么的荒谬。这种未知性也更加深了人类对人工智能道德伦理的担忧。

人工智能伦理待规范责任主体权利归属难

人工智能技术可以说是第一个对人文伦理产生挑战的技术应用,他极可能或正在重塑着人类的社会秩序和伦理规范。

对于人工智能的伦理问题,目前学界关注的重点大多集中在技术应用的责任伦理上。随着人工智能自主能动性的提高,技术使用和监管责任才是最突出的伦理难题——如何确定人工智能技术活动机器后果的责任主体,是人工智能发展必须考虑的问题。

这方面问题涉及到哲学伦理,因而很难被大众讨论。但人工智能表现出的伦理问题,却也与普通人的日常息息相关。

譬如虽然人工智能在速度、精度等方面远高于人,但在大数据运行过程中常会出现算法偏差和歧视问题,像在谷歌搜索中,相比搜索白人名字,黑人名字更易与暗示犯罪、暴力的广告和内容相关联。

在责任主体方面,虽然“机器比人聪明”并非机器替代人类掌握控制权的充要条件,但这一优势也高度反应了智能技术中人类主体权利的隐忧。人类为自我负责源于自我决定权,同时意味着自我风险、行为后果的承担能力。

以自动驾驶汽车为例,人工智能驾驶的汽车拥有自主决定权后,可以有效避免醉酒驾驶、疲劳驾驶等不合法人为错误。

但相应责任转移给人工智能算法后,当智能汽车面临无人驾驶版“电车难题”时,人工智能应该杀掉少部分人保全大部分人,还是仅仅保护车内人员安全等等困局,都难逃责任主体权利归属的拷问。是“技术漏洞”还是“使用不当”抑或是“算法”擅自所谓,这一问题至今无解。

开发伦理嵌入技术应对人工智能伦理风险

关注人工智能技术带来的机器伦理问题,提升人工智能技术的安全性。首先在技术层面,未来可以通过嵌入伦理准则,制定完善设计原则等方式,规避人工智能潜在道德风险。

美国科幻作家阿西莫夫的“机器人三定律”经典地诠释了机器人所应遵从的基本道德规范,在《我,机器人》中,机器人被集体嵌入了道德定律,以此规范人工智能的行为。而在现实中,人工智能的道德也是可以被预设的。

虽然道德嵌入技术暂未实现,但其一直被视为人工智能伦理风险规避的主要手段。社会学家布鲁诺·阿图尔称其为“将装置道德化”,将道德规范对人的约束转变为对物的“道德嵌入”。

除了加紧对道德嵌入技术的开发,还要在设计环节增强道德风险意识,在设计之初预测和评估人工智能产品可能引发的道德危害,从设计源头进行规范。现今暴露的诸多人工智能道德失范问题,实则也是算法设计的疏漏。

尽管对于人工智能技术,还有很多未知领域等待我们探索,但最重要的是必须坚持以理性、积极的心态应对人工智能带来的技术革命。正如兰登·温纳在《自主性技术:作为政治思想主题的失控技术》中所说的,“失控不是技术本身的错,只是人们想象泛滥疑惑勇气的缺失。”

【科技云报道原创】

人工智能中的道德问题:如何确保机器学习算法的透明度和可解释性

目录

人工智能中的道德问题:如何确保机器学习算法的透明度和可解释性人工智能中的道德问题:如何确保机器学习算法的透明度和可解释性引言

1.1.背景介绍

随着人工智能技术的快速发展,机器学习算法已经在各个领域取得了显著的成果,如金融、医疗、教育等。然而,这些算法在带来便利的同时,也引发了一系列道德问题。如何确保机器学习算法的透明度和可解释性,让算法在服务人类的同时,不损害人类的利益,成为了学术界和产业界共同关注的问题。

1.2.文章目的

本文旨在讨论如何确保机器学习算法的透明度和可解释性,以便为机器学习算法在道德困境中提供有益的建议和指导。

1.3.目标受众

本文的目标读者为对机器学习算法感兴趣的程序员、软件架构师、CTO等技术人员,以及对机器学习算法在道德问题上的可解释性有所关注的社会各界人士。

技术原理及概念

2.1.基本概念解释

机器学习算法可以分为两大类:传统机器学习算法和深度学习算法。传统机器学习算法主要通过训练数据中的模式识别来实现任务,如线性回归、决策树等。而深度学习算法则是通过构建多层神经网络来学习数据中的复杂特征,如图像识别、语音识别等。

2.2.技术原理介绍

无论是传统机器学习算法还是深度学习算法,都存在一定程度的不透明性和不可解释性。传统机器学习算法往往需要手动设计规则来处理数据,而深度学习算法则通过参数调整来决定网络的输出结果。这种不透明性和不可解释性使得机器学习算法在应用过程中容易产生道德问题。

2.3.相关技术比较

为了解决机器学习算法的不透明性和不可解释性问题,学术界和产业界发展了一系列技术,如自然语言处理(NLP)、计算机视觉(CV)等。NLP和CV是机器学习应用领域中的重要分支,具有很高的研究价值和应用价值。

实现步骤与流程

3.1.准备工作:环境配置与依赖安装

在实现机器学习算法的过程中,首先需要确保环境配置正确。这包括机器学习框架的选择、数据的预处理等。此外,还需要安装相关的依赖,如Python、TensorFlow等。

3.2.核心模块实现

机器学习算法的实现通常包括数据预处理、特征工程、模型选择与训练、部署等步骤。其中,数据预处理和特征工程是机器学习算法的基础,也是实现机器学习算法的关键。

3.3.集成与测试

集成与测试是确保机器学习算法性能的重要环节。在集成过程中,需要确保各个模块之间的协同工作,以达到最佳效果。在测试过程中,需要关注算法的性能、稳定性等方面,以保证算法的安全性和可靠性。

应用示例与代码实现讲解

4.1.应用场景介绍

机器学习算法在各个领域具有广泛的应用,如金融、医疗、教育等。然而,这些算法在应用过程中容易产生道德问题,如隐私保护、数据歧视等。因此,确保机器学习算法的透明度和可解释性,让算法为服务人类的同时,不损害人类的利益,变得尤为重要。

4.2.应用实例分析

案例1:推荐系统

推荐系统是一种利用机器学习算法对用户进行个性化推荐的系统。在推荐过程中,需要对用户的历史行为、兴趣等信息进行分析,以预测用户的未来需求。然而,如果推荐系统存在歧视现象,如针对某些人群的推荐算法,就可能引发道德问题。

案例2:图像识别算法

图像识别算法可以通过机器学习对图像进行识别,如人脸识别、商品识别等。然而,如果这些算法存在accuracy歧视现象,即算法对某些人群的识别准确率较高,而对其他人群的识别准确率较低,就可能引发道德问题。

案例3:自然语言处理算法

自然语言处理算法可以对文本进行分析和处理,如文本分类、情感分析等。然而,如果这些算法存在文本歧视现象,即算法对某些类型的文本具有较高的敏感度,而对其他类型的文本具有较低的敏感度,就可能引发道德问题。

4.3.核心代码实现

代码1:Python环境

importnumpyasnpclassrecommendation_system:def__init__(self,user_id,user_history,item_id,item_type):self.user_history=user_historyself.item_id=item_idself.item_type=item_typedefrecommend(self):#分析用户历史行为,提取特征user_features=[]foreventinself.user_history:user_features.append(event.split(",")[1:])#分析物品特征,提取特征item_features=[]foriteminself.item_id:item_features.append(item.split(",")[1:])#分析用户-物品交互矩阵,提取特征interaction_matrix=[[item.split(",")[0],float(item.split(",")[1]),float(item.split(",")[2])]foriteminself.item_id]#特征工程:将特征向量转换为特征矩阵user_features=np.array(user_features)item_features=np.array(item_features)interaction_matrix=np.array(interaction_matrix)#模型训练:使用特征矩阵训练模型,如线性回归、神经网络等model=linear_regression(user_features,interaction_matrix)#模型预测:使用模型对物品进行推荐recommended_items=model.predict(item_features)returnrecommended_items

代码2:Python环境

importnumpyasnpclassImageClassifier:def__init__(self,model):self.model=modeldefclassify(self,image):#数据预处理:将图像转换为灰度图像gray=cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)#特征提取:使用卷积神经网络提取特征features=self.model.predict([gray])returnfeatures

代码3:Python环境

importnumpyasnpclassTextClassifier:def__init__(self,model):self.model=modeldefclassify(self,text):#数据预处理:对文本进行清洗,去除标点符号、停用词等text="".join([p.lower()forpintext.split()ifpnotinstopwords])#特征提取:使用循环神经网络提取特征features=self.model.predict(text)returnfeatures优化与改进

5.1.性能优化

在机器学习算法的开发过程中,性能优化是至关重要的一环。通过使用更高效的算法、减少模型复杂度等方法,可以提高算法的运行速度和准确性,从而降低道德风险。

5.2.可扩展性改进

随着机器学习算法的广泛应用,如何对算法的可扩展性进行改进,以应对大规模数据和多模态输入,成为了学术界和产业界共同关注的问题。通过引入新的特征、设计更高效的模型结构等方法,可以提高算法的可扩展性,降低道德风险。

5.3.安全性加固

保障机器学习算法的安全性是十分重要的。通过对算法进行安全性加固,可以降低算法对敏感数据的影响,防止因算法应用不当而引发的道德问题。

结论与展望

6.1.技术总结

本文通过对机器学习算法中透明度和可解释性问题的分析,提出了一系列实现步骤与流程,并对机器学习算法的应用现状和未来发展进行了展望。随着技术的不断进步,未来机器学习算法在道德问题上的可解释性将得到进一步改善。

6.2.未来发展趋势与挑战

未来机器学习算法在道德问题上的可解释性将得到进一步改善。首先,将出现更加先进的算法和技术,如生成式模型、联邦学习等,将有助于提高算法的透明度和可解释性。其次,机器学习算法在应对多样性和不确定性的能力上将得到进一步加强,以适应各种应用场景。然而,仍然存在一些挑战,如数据隐私保护、算法公平性等,需要通过各种手段加以应对。

人工智能监管难题:如何“用魔法打败魔法”

我国人工智能专门立法具有一定的可行性,但是也面临着诸多现实难题。

全球AI立法进程明显提速,世界各国的监管都在追赶AI的演化速度。

当地时间6月14日,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》(AIAct)谈判授权草案。按照欧盟立法程序,欧洲议会、欧盟成员国和欧盟委员会将开始“三方谈判”,以确定法案的最终条款。

欧洲议会称“已经为制定史上首部人工智能法案做好谈判准备”。美国总统拜登释放管控AI信号,有美国国会议员提交了AI监管立法提案。美国参议院民主党领袖查克·舒默展示了他的“人工智能安全创新框架”,并计划在短短“几个月”内制定联邦层面的人工智能法案。

我国相关立法也已提上日程,人工智能法草案预备在今年内提请全国人大常委会审议。6月20日,首批境内深度合成服务算法备案清单也已经出炉,百度、阿里巴巴、腾讯等26家公司、共计41个算法榜上有名。

尽管中国、美国、欧盟都倡导准确、安全、透明度等原则性的AI监管理念,但在具体思路和方式上,存在许多不同。颁布全面的AI法律,背后是对自身规则的输出,欲掌握规则优势。

国内一些专家呼吁尽快开展人工智能法律规制,但目前面临的现实难题不容忽视。此外还有一个重要的考虑是:要监管还是要发展。这并不是一个二元对立的选择,但在数字领域,平衡两者却颇为不易。

图/视觉中国

欧盟冲刺,中美提速

如果一切顺利,欧洲议会通过的《人工智能法案》有望在今年年底前获批。全球首部综合性人工智能监管法律很有可能落地欧盟。

“该草案会影响其他处于观望的国家加速立法。一直以来,人工智能技术是否应当纳入法治监管范畴始终争议不断。现在来看,《人工智能法案》落地后,相关网络平台,如业务内容以用户信息生成为主的平台,势必会承担更高的审核义务。”北京航空航天大学法学院副教授赵精武告诉《中国新闻周刊》。

作为数字战略的一部分,欧盟希望通过《人工智能法案》全面监管人工智能,其背后的战略布局也已摆到台面。

北京万商天勤(杭州)律师事务所执行主任彭晓燕告诉《中国新闻周刊》,《人工智能法案》除适用于欧盟境内,还规范位于欧盟之外、但系统输出数据在欧盟使用的系统提供方或使用者。极大扩展了法案的管辖适用范围,也可以窥见抢占数据要素管辖范围的端倪。

中国国际问题研究院欧洲研究所副所长、研究员金玲在《全球首部人工智能立法:创新和规范之间的艰难平衡》一文中也写道,《人工智能法案》突出欧盟人工智能治理的道德优势,是欧盟又一次欲发挥其规范性力量,通过规则优势弥补技术短板的尝试。反映了欧盟欲抢占人工智能领域道德制高点的战略意图。

《人工智能法案》已酝酿两年。2021年4月,欧盟委员会提出基于“风险分级”框架的人工智能立法提案,后经多轮讨论和修订。在ChatGPT等生成式AI风靡后,欧盟立法者又紧急添“补丁”。

一个新变化是,《人工智能法案》最新草案加强了对通用人工智能(generalpurposeAI)的透明度要求。例如,基于基础模型的生成式AI必须要对生成的内容进行标注,帮助用户区分深度伪造和真实信息,并确保防止生成非法内容。像OpenAI、Google等基础模型的提供者,若是在培训模型期间使用了受版权保护的数据,也需要公开训练数据的详细信息。

此外,公共场所的实时远程生物识别技术从“高风险”级别调整为“被禁止”级别,即不得利用AI技术,在欧盟国家的公共场合进行人脸识别。

最新草案也进一步提高了违法处罚数额,将最高3000万欧元或侵权公司上一财政年度全球营业额的6%,修改为最高4000万欧元或侵权公司上一年度全球年营业额的7%。这比欧洲的标志性数据安全法律《通用数据保护条例》所规定的,最高可处以全球收入的4%或2000万欧元罚款高出不少。

彭晓燕告诉《中国新闻周刊》,处罚数额的提高,侧面反映了欧盟当局对人工智能监管决心与力度。对于谷歌、微软、苹果等营收数千亿美元的科技巨头而言,若违反《人工智能法案》规定,罚款可能达到上百亿美元。

而在大洋彼岸的美国,华盛顿忙于回应马斯克等人呼吁加强AI管控之际,6月20日,美国总统拜登在旧金山会见了一群人工智能专家和研究人员,讨论如何管理这项新技术的风险。拜登当时称,在抓住AI巨大潜力的同时,需要管理其对社会、经济和国家安全带来的风险。

风险管控成为AI热门话题的背景是,美国并未对AI技术采取像反垄断那般严厉措施,尚未出台联邦层面、综合性的AI监管法律。

美国联邦政府首次正式涉足人工智能监管领域是在2020年1月,当时发布了《人工智能应用监管指南》,为新出现的人工智能问题提供监管和非监管措施指引。2021年出台的《2020年国家人工智能倡议法案》更多算是在AI领域的政策布局,与人工智能治理和强监管还有一定距离。一年后,白宫于2022年10月发布的《人工智能权利法案蓝图》(简称“《蓝图》”)为人工智能治理提供了支持框架,但并不是美国官方政策,不具备约束力。

美国AI立法进展甚微,已招致许多不满。不少人批评,在数字经济的规则制定方面,美国已落后欧盟和中国。不过,或许是看到欧盟《人工智能法案》即将走过最后“关卡”,美国国会近期出现了立法加速迹象。

拜登举行AI会议当天,民主党众议员泰德·刘(TedW.Lieu)、安娜·埃舒(AnnaEshoo),以及共和党众议员肯·巴克(KenBuck)一同提交了《国家人工智能委员会法案》提案。同时,民主党参议员布莱恩·夏兹(BrianSchatz)将在参议院提出配套立法,一同专注于人工智能监管问题。

根据法案内容,人工智能委员会将由来自政府、行业、民间社会和计算机科学领域的共20名专家组成,将审查美国当前的人工智能监管方法,共同制定全面的监管框架。

“AI正在社会上做出令人惊叹的事情。如果不受控制和监管,会造成重大伤害。国会绝不能袖手旁观。”泰德·刘在一份声明中说。

一天后,6月21日,参议院民主党领袖查克·舒默(ChuckSchumer)在战略和国际研究中心(CSIS)发表演讲,揭示他的“人工智能安全创新框架”(简称“AI框架”)——鼓励创新,同时推进安全、问责制、基础和可解释性,呼应了包括《蓝图》在内的宏观规划。他曾在4月提出过该框架,但当时基本没有透露细节。

AI框架背后是查克·舒默的一项立法战略。他在此次演讲中表示,要在短短“几个月”内制定联邦层面的人工智能法案。不过,美国立法程序繁琐,不仅要经过参众两院投票,还需经过多轮听证会,耗时长久。

为了拉快进度,作为AI框架的组成部分,查克·舒默计划从今年9月起举办一系列人工智能洞察力论坛,涵盖创新、知识产权、国家安全和隐私在内的10个主题。他告诉外界,洞察论坛不会取代国会关于人工智能的听证会,而是同步进行,以便立法机构可以在几个月而不是几年内推出有关该技术的政策。他预计,美国的AI立法可能要到秋天“才能开始看到一些具体的东西”。

虽进度并未赶上欧盟,但我国相关立法也已提上日程。6月初,国务院办公厅印发《国务院2023年度立法工作计划》,其中提到,人工智能法草案等预备提请全国人大常委会审议。

按照我国《立法法》的规定,国务院向全国人大常务委员会提出法律草案后,由委员长会议决定列入常务委员会会议议程,或者先交有关的专门委员会审议、提出报告,再决定列入常务委员会会议议程,后续一般需经历三次审议后再交付表决。

今年以来,不少国家AI立法提速,彭晓燕认为这是竞争和技术发展一同催热的结果。

“数据要素越来越成为国家战略要素,各国也希望通过立法确立管辖权,抢占人工智能话语权。同时,ChatGPT等人工智能技术的迭代更新,让社会看见了强人工智能发展的新希望。新技术的发展势必会带来新的社会问题与社会矛盾,需要规范介入调整,技术的发展某种程度上推动了立法的更新。”彭晓燕说。

分歧远多于趋同

中国、美国、欧盟是全球AI发展的主要驱动力,但三者在AI立法方面也存在一些不同。

欧盟《人工智能法案》从用途、功能等角度将人工智能应用风险分为4个层级,无论草案经过几轮修改,“风险分级”仍然是欧盟治理AI的核心理念。

金字塔顶端对应对人类安全造成“不可接受”的风险。例如,根据人们的社会行为或个人特征对其进行分类的打分系统等,这些将被完全禁止使用。

在最新草案中,欧洲议会扩大了“不可接受的风险”清单,防止人工智能系统出现侵入性和歧视性。全面禁止公共空间生物识别、情感识别、预测性警务(基于侧写、地点或过去的犯罪行为),以及从网络随意抓取面部图像等六类人工智能系统。

第二类是对人类安全或基本权利产生负面影响的人工智能系统,会被视为“高风险”。例如,航空、汽车、医疗设备等产品中使用的AI系统,以及必须在欧盟数据库中注册的八个特定领域,涵盖关键基础设施、教育、培训、执法等。在符合人工智能规定和事先合格评定的情况下,各种“高风险”人工智能系统将获得授权,遵守一系列要求和义务才能进入欧盟市场。 

另外,影响选民和选举结果的人工智能系统,以及根据欧盟《数字服务法》,拥有超过4500万用户的社交媒体平台所使用的推荐系统也将被列入高风险名单,例如Facebook、Twitter和Instagram。

处在金字塔底部的是有限风险、风险很小或没有风险的人工智能系统。前者具有特定透明度义务,需要告知用户正在与AI系统互动,后者无强制性规定,基本上不受监管,如垃圾邮件过滤器等应用。

因有着严格的监管条款,《人工智能法案》被很多业内人士视为长了许多尖锐的“牙齿”。不过,该法案也试图在强监管和创新之间寻求平衡。

例如,最新草案要求成员国至少建立一个可供中小企业和初创企业免费使用的“监管沙盒”,在一个受监督和安全可控的场景中,对创新性人工智能系统在投入使用前进行测试,直到满足合规要求。欧盟普遍认为,该提议不仅可以让当局实时关注技术变化,也帮助AI企业减轻监管压力的同时能继续创新。

金玲在前述文章中称,欧盟的上游治理方法一方面要求企业承担更多的前置成本,另一方面也因为风险评估不确定性影响企业投资热情。因此,尽管委员会一再强调人工智能立法将支持欧洲数字经济的创新和增长,但现实的经济分析似乎并不认同这个结论。法案反映了欧盟在促进创新和权利保护之间难以有效平衡的内在冲突。

美国同欧盟、中国一样,都支持主要基于风险的人工智能监管方法,倡导准确、安全、透明度。不过,在赵精武看来,美国监管思路更注重利用AI,推动AI行业的创新和发展,最终是为了保持美国的领导地位和竞争力。

“不同于中国和欧盟秉持的‘风险预防和技术安全’监管理念,美国则侧重商业发展优先。中国和欧盟均侧重人工智能技术应用安全保障,避免人工智能技术滥用侵害个体权利,美国则是以产业发展作为监管重心。”赵精武说。

有研究发现,美国国会立法主要集中在鼓励和指导政府使用人工智能。例如,美国参议院曾于2021年推出一项人工智能创新法案,要求美国国防部实施一项试点计划,以确保其能够获得最佳的人工智能和机器学习软件能力。

查克·舒默在前述演讲中就将创新视为北极星,其AI框架就是要释放人工智能的巨大潜力,支持美国主导的人工智能技术创新。《人工智能应用监管指南》在开篇就明确应继续促进技术和创新的进步。《2020年国家人工智能倡议法案》最终目标也是要通过增加研究投入、建立劳动力系统等手段确保美国在全球AI技术领域保持领先地位。

彭晓燕表示,从指导性的规范设计角度来看,美国立法及制度层面上对人工智能发展尚且处在弱监管的态势,社会层面以开放的态度积极鼓励人工智能技术的创新与拓展。

与欧盟具有更加明确的调查权和全面的监管覆盖范围相比,美国采取了一种分散化的人工智能监管方式,部分州和机构以较小程度推进AI治理。这样导致的结果是,全国性的AI监管倡议都非常地宽泛和原则化。

例如,《蓝图》作为美国人工智能治理政策里程碑事件,制定了安全有效的系统、防止算法歧视、保护数据隐私、通知及说明、人类参与决策制定等五项基本原则,并无更加细致条款。

彭晓燕认为,《蓝图》未制定具体的实施措施,而是以原则性规定的方式搭建人工智能发展基本框架,旨在指导人工智能系统设计、使用及部署。

“像这类规范,不具有强制性,这是美国出于对人工智能产业扶持发展的考虑。目前,人工智能尚处于新兴发展阶段,高强度监管势必会一定程度上限制产业发展与创新,因而美国在立法上保持相对谦抑态度。”彭晓燕说。

“如果没有法律赋予各机构新的权力,它们就只能根据已有权力规范人工智能的使用。另一方面,对人工智能相关的道德原则保持较少规定,各机构可以自行决定如何监管,保留哪些使用权利。”卡内基分析师哈德里恩·普格(HadrienPouget)认为,这使得以白宫为首的联邦机构既受限制又自由。

以利用和创新为主导的AI治理理念,注定美国的“拳头”不会太硬。美国著名智库布鲁金斯学会研究员亚历克斯·恩格勒(AlexEngler)指出,对于教育、金融、就业等具有社会影响力的人工智能,欧盟和美国正采取不同的监管方法。

在对具体AI应用上,欧盟《人工智能法案》对聊天机器人有透明度要求,而在美国还没有联邦层面的规定。面部识别被欧盟视为“不可接受的风险”,美国则是通过美国国家标准与技术研究院(NIST)人脸识别供应商测试计划提供公共信息,但不强制制定规则。

“欧盟的监管范围不仅涵盖了更广泛的应用,而且为这些人工智能应用制定了更多规则。而美国的做法更狭隘地局限于调整当前的机构监管机构来尝试治理人工智能,人工智能的范围也有限得多。”亚历克斯·恩格勒说,尽管存在宽泛的相同原则,但在AI风险管理中,分歧远多于趋同。

赵精武总结中国、欧盟、美国的AI监管模式,发现中国以人工智能技术应用场景为限,专门针对人脸识别技术、深度合成、自动化推荐等应用场景制定专门监管规则。欧盟是以风险水平为导向,根据人工智能应用的风险水平是否属于可接受水平。美国则是在既有的传统法律制度框架判断人工智能技术应用的合法性。

此外,美国也将更多注意力集中在人工智能研究上面,为其投入更多资金。就在5月初,美国白宫宣布投资约1.4亿美元,建立七个新的国家级人工智能研究所。有研究者认为,美国此举是希望能更加了解AI,从而减轻监管过程中产生的担忧。

彭晓燕则表示,我国采取鼓励人工智能技术发展同时有限规范相关领域管理的措施,以调和的政策与管理要求引导人工智能技术发展。

我国立法面临诸多现实难题

欧盟正加速落地全球首部AI监管法案,赵精武告诉《中国新闻周刊》,欧盟的“风险等级制”人工智能监管措施,《人工智能法案》提出的“通用模型”监管概念,以及专门针对ChatGPT这类生成式人工智能应用的披露义务、数据版权合规义务,都对我国人工智能立法有参考价值。

事实上,我国对于人工智能的立法早已起步,2017年国务院发布的《新一代人工智能发展规划》提出,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。

地方上,2022年,深圳市出台《深圳经济特区人工智能产业促进条例》,被看作我国首部人工智能产业专项立法。《条例》提到,完善人工智能领域监管机制,防范人工智能产品和服务可能出现的伦理安全风险和合规风险。

当前,我国人工智能规制主要由几大部委共同推进,分别从不同领域推动人工智能领域的规范和发展。《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》等规范性文件也相继出台。

“综合历来管理规范来看,我国关于人工智能领域的规定采用区分业务领域、区分技术方向的措施,管理规范趋于分散化。在规范出台上,往往具有应时性特征,在特定技术出现后作出专门性管理规定。规范由行政部门主导颁布,侧重监管,在规范层级上未上升为法律。”彭晓燕说。

值得注意的是,6月20日,首批境内深度合成服务算法备案清单出炉,百度、阿里巴巴、腾讯、字节跳动、美团等26家公司、共计41个算法榜上有名。

随着AI立法热度升温,国内开始有专家呼吁尽快开展人工智能法律规制。不过,在赵精武看来,我国人工智能专门立法具有一定的可行性,但是也面临着诸多现实难题。

“一是立法文件之间的体系衔接问题,人工智能专门立法与其他规范性文件之间的适用关系尚未解决,尤其是专门立法与现行立法在内容层面的重叠问题亟待解决。二是人工智能技术更新迭代速度加快,保障法律与技术的同步发展存在一定的难度;三是人工智能监管规则缺乏整体性,数据、算法和算力三大核心要素的监管规则仍处于探索阶段;四是人工智能立法的重心究竟是以安全风险治理为主,还是以产业发展保障为主争议较大。”赵精武说。

无论是欧盟的《人工智能法案》,还是中国、美国等国家针对AI的规定、倡议、规划,都在试图构建一个完善的监管框架:既能确保安全,又能为AI创造更好条件。

基于这种普适性原则,彭晓燕告诉《中国新闻周刊》,我国建立的人工智能法律,首先应当建立在积极鼓励发展创新的基础上,使得人工智能在相对开放的空间领域进行规范发展,划定发展红线。

“此外,还需要解决现下大家集中关心的人工智能领域法律问题,包括但不限于人工智能违法违规内容的禁止、人工智能数据安全保护、人工智能伦理安全的保障、知识产权侵权的防范等等。”彭晓燕说。

赵精武认为,我国应当建立以产业发展保障为导向的人工智能法律。

“现行立法在一定程度已经可以基本满足人工智能技术应用监管的需求。预防技术风险,保障技术安全只是治理过程,其最终目的仍然还是需要回归到人工智能产业发展层面。毕竟人工智能法律不是限制产业发展,而是引导和保障相关产业的良性发展。”赵精武说。

作者:哈力克

海量资讯、精准解读,尽在新浪财经APP

责任编辑:韦子蓉

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇