博舍

人工智能时代国际传播中的数据隐私保护 人工智能时代如何保护隐私

人工智能时代国际传播中的数据隐私保护

图2以“人工智能”并含有“数据隐私保护”为主题的论文发表数量(2010~2019年)

图3人工智能时代数据隐私保护相关研究主题前十名分布

在与人工智能相关的隐私保护问题研究中,较有代表性的为邵国松、黄琪的《人工智能中的隐私保护问题》,其主要探讨了“人工智能中隐私保护的对象、人工智能侵害隐私的方式,以及可能的法律救济手段”,但是缺乏对数据隐私保护的具体阐述和分析。李修全在《人工智能应用中的安全、隐私和伦理挑战及应对思考》一文中,“探讨了人工智能可能引发的安全性挑战、隐私保护挑战与伦理规范挑战,并分析了人工智能在数据采集、云计算以及知识抽取中会涉及的隐私问题”。也有学者从“剑桥分析事件”与“脸书泄密门”为切入点,分析人工智能时代的隐私保护问题,例如穆琳的《剑桥分析事件算法黑箱问题浅析》、以及王军的《从脸书泄密门看人工智能时代隐私保护的困局与出路》。

图4以“人工智能”并含有“国际传播”为主题的论文发表数量分布(2010~2019年)

总的来说,这些研究大都是从大方向上去讨论人工智能可能对数据隐私保护造成的困境,较少有研究关注国际传播这一特定领域的隐私数据利用与保护。以2010年到2019年为研究时间段,中国知网上主题为“人工智能”并含有“国际传播”的研究如图4所示,2010年至2014年并没有相关研究,2015年才有2篇相关文章发表,2018年相关发文量达18篇,2019年(截至5月)有4篇。在现实中,人工智能技术越来越多地被运用到国际传播当中,然而相关研究仍严重不足,当下对该问题进行研究具有一定的理论意义与现实意义。

一、人工智能应用全球化

1955年,在洛杉矶召开的美国西部计算机联合大会中的“学习机讨论会”上,出现了人工智能技术的相关研究,“赛弗里奇发表了自己关于模式识别的观点,另一位学者纽厄尔分享了自己探究计算机下棋的成果,而作为主持人的皮茨总结说:‘(一派人)企图模拟神经系统,而纽厄尔则企图模拟心智……但殊途同归’”。经过几十年的发展,现有研究一般将人工智能技术分为三类:一是弱人工智能,二是强人工智能,三是超人工智能。“目前的人工智能技术仍处于弱人工智能状态,即让机器具有某种具体的智能行为”,且人工智能主要分为三个领域,“一是机器人技术,二是自然语言处理,三是专家系统”。总的来说,人工智能是一个较大范围的计算机科学技术方面的概念,它以芯片为载体,以数据为基础,以算法为工具,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能具有强大的数据搜集与分析能力,其发展与应用呈现出全球化的态势。在中国知网,从1997年到2019年(1997年之前没有相关研究),主题为“人工智能”并含有“全球化”的研究主要集中在2017年(31篇)与2018年(29篇),而2019年(截至5月)有4篇这方面的文章。相关研究主题的前十位分布如图5所示,主要集中在人工智能、全球化、企业管理、工业革命以及我国的对外传播方面(如“一带一路”)等,这些研究缺乏对国际传播领域数据隐私保护的关注。

图5主题为“人工智能”并含有“全球化”的相关研究主题前十位分布情况

本文中的人工智能全球化概念是从全球化概念本身引申出来的。全球化主要是指全球联系不断加强,国与国之间在政治、经济等方面相互依存、相互影响、相互合作。本文提出的人工智能全球化主要是指人工智能技术受到世界各国关注,一些国家在推进人工智能发展的同时,在一些领域进行合作,并将其广泛应用于国际传播当中。人工智能全球化主要体现在四个方面,即科研全球化、战略全球化、应用全球化以及影响全球化。

(一)人工智能科研全球化

人工智能技术的研究最初起源于美国,发展至今已成为全球关注的一门科学。美国、英国、加拿大、中国、印度等国都在人工智能领域开展了众多研究。截至2019年初,“中国科学院、伊朗伊斯兰阿扎德大学、美国斯坦福大学在人工智能领域的研究发文数量排在前三位,分别为257篇、190篇、180篇”,美国、中国、英国、德国等国家在这一领域也开展科研合作。

(二)人工智能战略全球化

人工智能不仅在学界备受关注,也受到各国政府的重视,很多国家将发展人工智能技术视为未来发展的关键战略,人工智能的发展呈现出全球化趋势。

2016年底,美国白宫发布了《为人工智能的未来做好准备》《国家人工智能研究与发展战略规划》《人工智能、自动化与经济》三份关于人工智能的报告。2018年7月,美国国防部高级研究计划局启动了“人工智能探索”项目。2019年2月,美国总统特朗普签署了一项行政命令,正式启动“美国人工智能倡议”,“旨在从国家战略层面调动更多联邦资金和资源用于人工智能研发,以应对来自‘战略竞争者和外国对手’的挑战,确保美国在该领域的领先地位”。

“美国人工智能倡议”是美国首个国家层面的人工智能促进计划。此前,其他国家已相继发布人工智能相关的国家战略。2017年7月,中国出台《新一代人工智能发展规划》,这是中国首部国家级人工智能发展规划。2017年10月,英国政府发布《发展英国人工智能产业》报告,指出“应该加大对人工智能的研发投入,加强大数据的管理和共享,培训更多人工智能人才”。此外,欧盟也分别于2014年和2018年发布了《欧盟机器人研发计划》《欧盟人工智能》等发展计划。

(三)人工智能应用全球化

国际关系和国家间的博弈在一定程度上推动了人工智能技术的发展,而人工智能技术也影响着国际关系的走向以及国际传播的格局。人工智能在国际传播中的应用表现出全球化。

国际传播从狭义上来讲是通过媒体进行国与国之间的信息互通,是国与国进行跨文化交流的主要方式。不同国家和地区具有不同的话语体系与文化体系,生活方式与行为准则存在差异,“当文化的偏向与传播的偏向互现的时候,不同文化背景的人与人之间的理解与沟通就会显得相当艰难”,这也是国际传播在实际操作中的难题所在。而人工智能技术的发展则从四个方面推动了国际传播的发展——了解传播对象、定制传播内容、智能分发推送、获得传播对象反馈。

目前,人工智能技术已经在国际传播中被广泛应用。第一,利用人工智能的数据快速搜集与整理功能可以帮助媒体进行受众调查和定位,从而更加准确清晰地了解受众,制作符合其话语与文化习惯的内容产品。第二,一些媒体将人工智能技术用于国际传播内容生产环节,机器人写作初露端倪。第三,人工智能技术的内容分发、智能推荐功能在国际传播中应用广泛,例如“今日头条”推出面向海外用户的“TopBuzz”新闻客户端,为海外用户智能定制与推送新闻信息。第四,人工智能也为媒体搜集用户反馈提供帮助,通过数据分析呈现传播效果,为改进传播提供借鉴。

(四)人工智能影响全球化

随着数据全球化与媒介全球化发展,人工智能的影响也逐渐全球化。人工智能影响的全球化有正面和负面影响;积极和消极影响,具体表现在跨地域、跨国家、跨种族、跨文化的一种全域、全时的影响。

剑桥分析公司曾多次利用人工智能技术收集并分析脸书用户的个人数据,以此影响一国民众的政治立场。2016年,美国大选期间,剑桥分析公司利用人工智能技术,从脸书平台获取美国民众的个人数据,分析选民的心理特征与政治立场,并向持摇摆态度的选民投放广告,从而影响这些选民的态度,同时也利用这些个人隐私数据对竞选人的线下宣传活动进行指导。2018年,剑桥分析公司再次被披露“曾为支持英国脱欧的团体提供服务、诱导民众”,“其首席执行官亚历山大·尼克斯也曾公开表示剑桥分析公司帮助英国脱欧团队‘充实了社交媒体宣传活动’,确保‘正确的信息传达到正确选民手中’”。

从两次利用人工智能干预政治的事件可以看到,人工智能影响的全球化,是一种蝴蝶效应,牵一发而动全身。例如剑桥分析公司事件,不仅影响了美国国内的大选局势,同时也直接影响了俄罗斯与美国的关系,以及其他国家的对外政治与经济政策;而人工智能在影响英国脱欧、影响英国和整个欧盟的同时,也在一定程度上造成了国际局势动荡,影响了其他国家的政策制定。在这个全球互联、相互依存的时代,这种全域的影响对有的国家来说是立竿见影的,对有的国家来说则是潜移默化的。

剑桥分析公司事件反映出的数据隐私泄露、政治立场被引导或操控乃至对国际局势的影响,正引起全球关注。各国都在积极思考如何应对人工智能所可能给国际政治带来的影响以及给伦理带来的挑战。在这两次剑桥分析公司涉足的政治事件中,在全球化的人工智能与大数据面前,一个个用户都被当成了信息包裹,而不是真实的人。实际上这是一种物化——对人本身的物化与人意识的物化,被物化的不仅仅是这些受到大数据分析影响的选民,实际上还有技术的开发者与使用者。

人工智能技术在受到各国政府高度重视以及大力发展的同时,其应用可能带来的问题也引起各国政府的警惕。2018年3月,“美国布鲁斯金学会发布了《政治战的未来:俄罗斯、西方与即将到来的数字竞争时代》,指出人工智能和媒体机器人已成为国际政治战中新的威胁,一国可以利用机器人操控多个社交媒体账号集中发布虚假信息”。2018年6月,英国皇家国际事务研究所发布《人工智能与国际事务》报告,指出“人工智能将改变国际事务分析条件,让少数人员、部门和国家借助智能技术优势拥有更加准确、可信的预测能力,从而形成新的国际权力鸿沟,并改变国际事务实际操作过程中的决策运作”。

2014年春季,土耳其举行地方选举时,一些身份不明分子在脸书上发布了数段据称能坐实当时的总理埃尔多安亲信深陷腐败的通话录音,对土耳其政治形势造成动荡,“事件发生后,埃尔多安第一时间作出表态,称曝光的录音是合成伪造的,并抨击窃听事件,称这一行为是对民主的威胁”。选举结束后,土耳其政府结束了对脸书的禁令,但是后来脸书又因为传播人质视频引起土耳其社会动荡,再次被封禁。不明身份的人发布的一段录音都能使一国政治动荡,试想,在人工智能技术广泛应用和快速发展的今天,人工智能合成主播技术已经较为成熟,如果不法分子将其用于合成一国领导人发言的视频,在国际上传播不实信息,国际局势将会受到极大的影响。

二、数据隐私保护国别化

“隐私”即个人不愿意公开告知别人的信息,而数据隐私这一概念则出现相对较晚,并且随着互联网、大数据与人工智能技术的发展而受到更多关注,“数据隐私”即不想被他人获知的秘密数据,包括可用来识别或定位个人的信息(如电话号码、地址、信用卡号、认证信息等)和敏感的信息(如个人的健康状况、财务信息、历史访问记录、公司的重要文件等)。数据隐私需要保护,这是毋庸置疑的,也是大多国家之间都达成共识的。然而,在确定什么数据是隐私、是否需要保护以及如何保护等问题上,各国有着各自不同的政策规定,即存在数据隐私保护国别化差异。

关于“国别化”的研究从2010年开始增多,但关注度并不高,以2010年到2018年为研究时间段,中文相关文献量平均每年不到15篇,其研究领域集中在中国语言文字方面(占比82.55%),大多是对国际汉语教育和对外汉语教材编写等方面进行研究。这些研究中对于国别化一词并没有具体和统一的定义,主要是指基于各国语言文化上的差异,汉语的国际传播与教育需有的放矢。对国别化概念进行引申,“数据隐私保护国别化”即各国历史和文化背景不同导致其对数据隐私的相关认知上存在一定程度的差异,这些差异体现在数据隐私理念的国别化、政策及立法的国别化等方面。

(一)数据隐私保护理念的国别化

什么是数据隐私,其界定的关键是什么,这些问题在世界范围内并没有达成一致,各国在数据隐私保护理念上存在国别化差异。

就数据隐私所涉及的广度来说,各国之间就大有不同。美国对数据隐私的界定所涵盖的范围较小,“其《信息自由法案》仅把人事档案和医疗档案视为隐私数据”。而在全球隐私保护持续加强的这几十年,一些国家随着技术的发展相继扩大数据隐私所涵盖的范畴,而曾经走在前面的美国却没有跟上步伐,还曝出侵犯个人数据隐私的行为——对普通公民进行大规模监听。英国对数据隐私的界定除了人事和医疗档案外,还包括种族起源、政治观点、宗教信仰。而澳大利亚法律中的数据隐私在美国和英国的基础上,增加了宗教从属关系、犯罪记录、性取向等。中国在《关于加强网络信息保护的决定》中提出,要保护能够识别公民个人身份和涉及隐私的电子信息,包括公民在使用网络服务时留下的数据信息、消费信息等等。

即使有部分国家在数据隐私保护的观念上达成了一致,由于对数据隐私的定义不同,在实际的操作中,各国仍存在分歧。例如,欧盟对于数据隐私的定义及保护规则比美国更全面、更严格。欧盟曾要求奥巴马政府减少监控,保护欧盟国家公众的隐私,“奥巴马总统的公共声明中,用了很大篇幅来回应欧盟的异议,并承诺在隐私数据上会加强保护”,但是在实际操作中,美国的做法却并没有达到欧盟的要求,“欧洲主要政治人物和隐私管理部门认为美国的隐私改革只是一种普遍的不作为。而法国前国家信息委员会隐私监察局局长在2014年初表示,奥巴马总统并没有采取实际行动来减轻欧洲对美国监控的担忧”。欧盟认为美国的做法更像是一种减轻各国领导人担忧的公共战略。

(二)数据隐私保护政策法规的国别化

除了数据隐私保护理念方面的不同,各国在相关政策和立法方面的差异也很大,专门规范国际传播中个人数据隐私保护的内容更是缺乏。(见表一)

美国对于数据隐私的保护规则相对复杂。1974年,美国通过《隐私权法案》,对收集和使用个人数据的行为边界和责任做出了规定。随后,美国相继通过了《电子信息隐私法》《互联网保护个人隐私政策》《消费者数据隐私保护法案》以及《消费者隐私权利法案》,对最早的个人数据隐私保护法案做出补充。除了联邦法案外,美国各州也有自己的隐私保护法,在保护细节上不尽相同。整体来看,“美国迄今为止实际上仍然没有一部单一、通用的网络隐私保护立法”,其关于数据隐私立法的最新进程是2019年2月美国政府问责局发布了《互联网隐私》报告,强调推进类似于欧盟通用数据保护条例的隐私立法的进程。在国际数据隐私保护的问题上,美国更多地是考虑本国利益。

英国的数据隐私保护起步比美国晚,但比美国更加系统化。从1998年的《数据保护法案》开始,英国相继发布了《信息自由法》《开放数据白皮书:释放数据潜力》《公共部门信息再利用条例》,对数据隐私的保护逐渐从私人领域扩展到公共领域。除了上述法案,英国还设置了信息专员办公室,旨在宣传与推动数据隐私立法,并协助公众维权。

欧盟的隐私数据保护政策是目前世界上最为详细和严格的。2018年生效的《通用数据保护条例》明确规定了数据获取者与控制者的责任,并对违规行为设定了至少1000万欧元的罚款。虽然没有包含详细的操作规定,但是在技术快速发展和更新的时代,该条例给出了个人数据隐私保护的严格规范,并对数据控制者提出了更高要求。此条例出台后,一些国外的社交媒体平台、网络服务商要进行很大的改革才能符合其标准。

中国目前并没有专门的数据隐私保护法律,但相关立法进程一直在推进。1990年《最高人民法院关于〈中华人民共和国民法通则〉若干问题的意见》,对公民隐私权做出司法解释,但是并没有涉及个人数据隐私的保护。2010年7月实施的《侵权责任法》有了对网络以及数据隐私保护的规定。随着互联网的发展,中国通过了《关于加强网络信息保护的决定》,提出保护公民的个人和隐私电子信息。2016年通过的《网络安全法》对个人隐私数据的搜集和保护做出更为详细的规定。2019年3月,十三届全国人大二次会议期间,十三届全国人大外事委员会主任委员张业遂表示,“已将《个人信息保护法》列入本届立法规划,争取早日出台”。可以预见,该法一经出台,中国的数据隐私保护将会得到巨大推动。

三、数据隐私保护与国际传播

由于缺乏统一的标准,在利用人工智能进行国际传播时,可能对个人数据隐私造成侵害,各国需要加强国际合作,共同进行数据隐私保护与人工智能规制的全球治理,推动国际传播的良性运行。

(一)人工智能应用全球化与数据隐私保护国别化的矛盾

首先,如上所述,各国对于隐私数据的界定各有不同,这就使得在国际传播中,各国对于各种数据的保护程度不一。例如,社交媒体搜集用户数据,给用户精确画像,这是否侵犯了用户的隐私?这一问题在各国的政策和法律中存在差异。欧盟2018年出台的《欧盟通用数据保护条例》规定了用户对个人隐私数据的知情权、控制权与被遗忘权,用户可以要求公司告知自己,掌握了自己的哪些数据,并可以要求其将这些数据删除。

其次,由于在国际传播中各国对使用隐私数据存在不同规定,可能会导致一方虽然通过合法途径使用人工智能获取与搜集个人信息,但是对数据的使用却存在违规。比如使用过程可能发生在数据获取国内,也可能发生在其他国家。在这个过程中,获取数据的这一方可能仅从所在国的惯例与经验出发进行数据抓取和使用,而违反数据来源国的数据隐私保护规定。各国不同的数据隐私保护规定也可能会使获取与使用数据的公司产生困惑、误解,从而造成数据的不当使用。由于缺乏全球统一的治理与问责机制,使得国际传播中的数据隐私保护面临多重挑战。

此外,通过人工智能获取的全球范围内的数据,其使用也是在全球范围内,应遵守哪里的数据隐私保护规定,也就是各国隐私保护法律的适用范围该如何界定,这也是在国际传播中需要思考的。目前专门针对隐私保护的国际法尚不健全,《国际人权法案》中有对于隐私保护的相关描述,但是内容有限,而且人工智能技术的快速发展也使《国际人权法案》难以应对目前的科技侵权情况。

(二)数据隐私全球治理的价值取向与实际操作

数据隐私数据在国际传播中是否需要保护并不存在争议,重要的挑战来自人工智能时代国际传播中该如何保护个人数据隐私以及如何规制国际传播中人工智能技术的应用。

在决定该问题的价值取向上,我们需要思考的是如何在“数据隐私保护”与“打破文化壁垒”间达到一个平衡,从而促进国际传播的良性发展。无疑,在国际传播中进行数据隐私保护是必要的,但这个保护也需要有一个限度,不能以隐私为名,处处限制,只为谋求一国私利,使国际传播更加困难。各国在保护个人数据隐私的时候,须考虑到国际政治、经济、文化等方面的可持续合作与发展,既要对个人数据隐私进行保护,也要考虑到科技创新的需要,以实现大多数人的幸福为目标和导向。

在实际操作中,要加强国际传播的国际合作,进行数据隐私保护的全球治理。需要探讨的问题有:是否需要全球统一的数据隐私保护法规;各国如何协作促进国际传播中的数据隐私保护;是否需要设立专门的数据隐私监督保护的国家机构,规范国际传播中的数据隐私保护,等等。对于制定全球通用的数据隐私保护法,有观点认为,“这具有一定的吸引力,但可能不会带来需要的变化,原因很简单,它并不能对现行的《国际人权法案》进行补充完善,国家安全免责条款可能会对其非常抗拒”。也就是说,制定这样一个全球通用的数据隐私保护法本身就是一件比较困难的事情,而且就算通过,该法的实施对国际传播中数据隐私保护所起的作用也是有限的。但即便如此,制定并推行统一的隐私数据保护法律来规避人工智能所可能带来的风险仍值得尝试,这是一种观念的进步,也是制度的进步。

四、中国媒体利用人工智能进行国际传播的策略与风险防范

人工智能在国际传播中的应用越来越广泛,我国媒体在利用人工智能进行国际传播,享受技术带来的便利的同时,也应当关注在这一过程中所可能涉及的伦理和法律问题,以规避可能存在的风险。

(一)熟悉各国数据隐私保护规则

中国媒体在利用人工智能进行国际传播时,要充分了解并遵守传播对象国的隐私数据保护政策与法律,并针对不同国家制定不同的国际传播策略,将人工智能技术应用于国际传播中的受众分析、内容生产、内容分发、交互反馈等各个环节,充分利用人工智能技术提高我国的国际传播力,但这些技术的应用都必须是在该传播对象国法律允许的范围内进行,有效规避风险,及时调整国际传播策略。

(二)提高辨别信息与舆论引导力

中国媒体需提高对本国舆论的引导能力,避免外国势力利用人工智能影响我国政治稳定。一方面,要提高在国际传播中甄别信息真假的能力,利用人工智能对信息进行快速判断,并对虚假信息的传播进行快速控制,及时辟谣,引导舆论。另一方面,媒体应加大对于数据隐私保护手段的宣传和推广,防止境外势力侵犯我国公民的个人数据隐私。

(三)争取国际规则制定话语权

中国媒体需关注国际隐私保护立法与全球人工智能技术规制方面的进展,加强对相关伦理规范与数据隐私国际立法的研究,结合我国情况与国际法精神,积极参与制定人工智能在国际传播领域应用的国际规则,并逐渐掌握相关领域的话语权,推动有利于我国和国际社会共同发展的数据隐私保护规则与人工智能技术使用规则,加强我国的国际传播能力。

“社会和道德通常很难跟上技术革命的迅猛发展,技术的步伐常常比伦理学的步伐要急促得多,被技术支配的危险就在身边”。人工智能技术在国际传播中的应用需要受到一定的约束,在促进国际传播、加强国际交流的同时,也要保护好个人的数据隐私,避免技术滥用给国际局势带来动荡,给人类社会带来伤害。正如爱因斯坦所说“关心人本身,应当始终成为一切技术奋斗的主要目标”,之于人工智能,亦然!

作者简介:栾轶玫,中国人民大学新闻学院教授、高级编辑、新闻与社会发展研究中心研究员;鲁妮,中国人民大学新闻学院2015级本科生。

基金项目:本文系国家新闻出版广电总局广播影视社科研究基金项目“人工智能时代广电融媒体内容生产研究”(项目编号:GD1738)的阶段性成果。

本文中人工智能与数据隐私保护的相关研究数据和图表均来自中国知网,数据截至2019-05-12,http://kns.cnki.net/kns/brief/result.aspx?dbprefix=scdb,访问时间:2019-05-12。返回搜狐,查看更多

季卫东:数据、隐私以及人工智能时代的宪法创新

数据、隐私以及人工智能时代的宪法创新

季卫东

(上海交通大学凯原法学院教授)

摘要:本文以大数据与人工智能的正比例关系为线索,分析了信息技术普及和数字经济发展背景下公民基本权利面临的危机以及宪法体制进行创新的契机。过度强调隐私会限制个人数据的收集和应用,使人工智能难以迅速进化;反之,则会造成机器官僚主义的独裁、问责机制的瓦解——这是当今宪法学的一个悖论。笔者认为,随着机器学习能力不断加强,算法黑箱化问题日益严重,以技术制衡技术将成为自然人对机器人进行间接管制的重要方式。疫情防控中智慧网络用于社会基层治理的实例和外国电子政府的经验也证明:把集权式的人工智能算法与分权式的区块链协议结合起来进行合理的机制设计,有可能成为新时代宪法秩序变迁的方向。

关键词:监视社会;算法歧视;算法黑箱与问责;机器人权;区块链协议;宪法体制创新

一、序言:算法独裁与数字人权的对峙

在当今社会,人工智能的应用范围已经越来越广泛,显著提高了生产的效率和生活的品质。当然这种便利性也是有代价的。从现代宪法学的角度来看,这种代价主要是牺牲隐私。把海量数据、图像等个体信息提供给计算机学习和处理,以便对行为进行预测和模仿,因而人工智能系统势必大量吞吐和咀嚼隐私。但隐私正是个人自由的基础。也就是说,高度进化的电子计算机有可能在相当程度上以算法独裁(Algocracy,JohnDanaher的表述)的方式限制甚至剥夺个人的自由,会以效率、便利、娱乐等不同诱因促使人们不断放弃既有的基本权利。这种代价也包括会思考的机器将大幅度取代人类的行为、冒犯人格的尊严,人机混合实际上正在招致人的动物化、机械化,并在根本规范层面引起了关于人道、正义以及伦理的一系列两难问题。另外,这种代价还包括算法黑箱化导致问责机制的削弱、蜕变以及瓦解,使限制权力的现代法治精神难以落实。

据报道,到2017年年底为止我国城市设置的摄像头达到1亿7000万个,其后还将大幅度增加。由于不像欧美那样对人脸识别技术进行严格限制,也没有使用图像数据必须经过本人许可的程序,中国根据海量图像数据进行人工智能研究的绩效的确非常突出,已经达到世界顶级水平。这种独特的条件使人工智能系统的深度学习能力超强,并能把有关成果迅速应用于经济和社会治理的各个方面,然而也加剧了算法黑箱化的程度。如果我们希望避免粗暴的数据攫取和算法独裁,希望按照“以人为本”的原则发展一种可信赖、可说明的人工智能,希望防止公权力以智能化决定的名义转嫁或推卸责任的流弊,那就必须注重与人工智能以及物联网、大数据相关的宪法学研究,认真探索在高科技时代切实保障公民基本权利,特别是个人信息安全和隐私权的方式和举措。

2019年6月,陌陌网络科技公司推出的智能软件“ZAO——逢脸造戏”,通过一张正面照就可以制作各种热门表情包和经典电影片段,曾经轰动一时。但在用户协议中有一个格式条款要求消费者把肖像权完全免费、不可撤销、永久地授予该公司,并允许该公司及关联公司在全球范围内进行网络信息传播、转授权以及再许可,引起媒体一片批评并导致工信部在同年9月采取监管行动。同年10月,浙江理工大学一位副教授对杭州野生动物世界强行采用人脸识别技术进行检票提起诉讼,以维护个人信息安全以及年卡合约的效力。上述现象说明,中国社会对任意收集和使用个人图像数据的风险意识提高了,人工智能时代的宪法权利正在成为非常突出的社会问题,因而我们有理由把2019年视为中国“数字人权元年”。

二、人工智能对现代宪法体制的挑战

(一)大数据与人工智能的正比例关系

马云曾经把数据比喻为21世纪的“石油”,即具有最重要经济和社会价值的生产资料。要想从海量数据中搜寻出有用的信息、甄别和防控风险、实现数据内在的价值,就必须改进网络架构、提高数据处理能力,这就需要强大的计算机信息处理系统。因此,第四次产业革命势必以人工智能为基本特征,造就一个万物互联互通、靠数据驱动、智慧网络化的社会。一般而言,人工智能是以数据为养料而成长的技术。离开海量数据,人工智能就无法发展和提高预测能力。所以大数据与人工智能的发展之间存在显著的正比例关系:数据的规模越大、质量越好,往往人工智能的功能就越强、预测的精确度也就越高。这种关系在预测犯罪或者开发有效的疫苗和药品等应用场景中表现得尤其清楚。现阶段的中国,人口规模(约14亿)、网民人数(约8亿)以及每天产生的数据量(约900兆字节)均为世界第一。由于国情和社会基础设施方面的某些特征,中国的互联网金融、网上购物、外卖快递、移动支付、“一卡通”系统非常普及,为数据的收集和应用提供了各种各样必要的场景和充分的条件。根据2018年的统计,中国大数据产业相关人才的规模全球第一,占比59.5%,比居第二位的美国高出37.1个百分点。更值得留意的是,中国数据的公有化程度极高,大约70%以上的优质数据资源由国家掌控。这种状况有利于打破各种局部疆界,充分调动数据资源来发展产业经济,也势必促进人工智能在国家治理和法律制度运作方面的广泛应用,但也把个人数据安全和隐私保护问题以更加尖锐的形式呈现出来。

(二)基于评分系统的身份原理与警察国家

例如作为第三方征信机构的芝麻信用,利用海量的各种数据(特别是阿里巴巴的电商交易数据和蚂蚁金服的互联网金融数据,也包括政府数据)构成个人数字化行为履历,分别从身份特质、行为偏好、履约能力、信用历史、交友关系等不同维度进行信用评分。在这里,950分为满分,750分以上为信用优良,550分以下(底限是350分)为缺乏信用。信用优良的用户可以享受很多优惠,如租车、住酒店不必交押金,网购可以先试后买,办理某些国家的旅游签证不必办理存款证明,租房可以零押金、先入住后付款,看病可以先诊疗后付费,还有信用婚恋,等等。据报道,这个征信系统的登记人数已经达到两亿,到2020年还将落实全民义务登记社会信用系统的计划,形成空前规模的“评分社会”或者说等级化的“排序社会”。最高人民法院已经与芝麻信用签署合作协议,形成了一种联合惩戒失信行为的机制——把判决不执行等违法行为纳入信用评价范围,通过各种应用平台限制失信被执行人的各种经济活动和生活方式,借助大数据强化债务履行和判决执行。

众所周知,随着改革开放的进展,中国人的财产关系日益复杂化。由于社会信用体系不太完备,从20世纪90年代开始,债权回收和判决执行难的问题就变得越来越突出。在这样的背景下,最高人民法院借助大数据、人工智能以及芝麻信用的征信资料来追查和惩戒被执行人的失信行为当然是必要的。但不可忽视的是,在官民一体化的联合惩戒机制形成和加强之后,如果没有适当的规范制约和数据安全保障,中国有可能会以评分系统为媒介迅速转变成史无前例的“监视社会”,个人的权利很容易受到这样或者那样的侵犯。例如,芝麻信用的评分和失信记录会作为数字化档案保存五年,对家庭生活的各方面,包括就学、就业、晋升、入保等,产生深远的、复杂的负面影响。其结果,可能会使得每个公民都有一个由大数据和人工智能构成的数字人格如影随形,在不知不觉中影响其命运;可能会使在现代化过程中被否定的身份原理在数字人格的基础上重新复活,事实上把每个公民作为“网络人”分为三六九等;可能会在事实上使公民失去悔过自新的机会(为此,《欧盟通用数据保护条例》规定了个人信息删除权、被遗忘权作为救济手段),导致社会的阶层之间更加缺乏流动性,特别是造成底层固化、形成“虚拟贫民窟”;可能会按照某种分类法或群体特征给公民个人贴上某种特定的标签,造成在所谓“新集体主义”框架内的身份原理和算法歧视。例如美国有的人工智能系统把黑人图片错误地识别为大猩猩,对亚裔族群在教育方面实行价格歧视,等等。

物联网、大数据以及人工智能的“铁三角”,在某些场合还可能剥夺公民对个人信息的自我处分权(隐私权)、人格尊严以及法律面前平等的权利。例如常见的电商和网络平台把个人消费信息作为学习数据使用,分析行为样式并发布对标广告,这是否已经构成对隐私权的侵犯是需要认真考虑的。特别是遗传信息包含那些与生俱来的特性,一旦由人工智能进行解读和外泄就很容易影响个人入学、就业以及加入商业保险,大幅度减少某些公民的人生机遇和选择空间。尤其是保险制度本来就是基于不利结果发生的偶然性而形成的互助机制,如果人工智能通过各种数据能够准确计算和预测特定个人未来的风险,就势必要把入保申请者分成不同类型进行差异化处理,导致人与人之间的不平等待遇,有些公民可能遭受歧视、被排除在外,这就势必从根本上动摇保险制度通过偶然性分散风险的逻辑基础。在一定意义上也可以说,如果在制度层面容许那些基于来自父母遗传信息的差别,其实就是在向封建时代的血统观、身份原理倒退。实际上,现代宪法的根本原则是维护公民的自由和平等,绝不允许把个人自己无法选择、无法纠正的事作为不平等待遇的依据。

(三)现代宪法体制的应对举措及其困境

鉴于上述问题在各国发展的趋势,欧盟《通用数据保护条例》(2018年5月25日实施,GeneralDataProtectionRegulation,简称GDPR)从维护现代宪法体制的立场出发,特别强调了对个人尊严和公民基本权利的保障,被誉为人工智能时代的新人权宣言。这个条例能直接约束各加盟国的立法,具有根本规范的属性,同时对欧盟各国向其他国家转移数据的业务也能发挥约束效力。为了防止上述侵犯个人数据和隐私、个体尊严以及机会平等性的流弊,欧盟GDPR第21条承认个人享有对基于大数据的人工智能档案或者数字行为履历提出异议的权利(反对权),如果数据管理者不能出示充分的正当性根据,必须中止电脑化处理。第22条还承认数据主体享有不服从那种仅根据人工智能而自动化作出的决定的权利,即公民享有对人工智能纯自动化决定的抵抗权,要求必须有人介入和监控计算机的信息处理。为了防止这种公民抵抗权被化解,GDPR明确指出数据管理者不得通过假装有人介入的方式来规避第22条的约束,确保人工智能不能单独地、自动化地作出决定。该条例第13条第2款还特别强调了透明性原则,要求数据管理者必须对数据主体履行信息公开的义务,并且所提供的信息、程序、规格、算法都必须能为主体所理解,是可以清楚说明的。

但是,不得不承认,欧盟《通用数据保护条例》第13条第2款和第22条在实施中会碰到一些前所未有的难题。规定必须由人介入和监控计算机的运作,其宗旨显然是要确保人工智能的可控性。然而信息处理系统越复杂就越容易出现操作的失误,当系统运作速度极快时,人也很难对情况进行认识、预测以及掌握。何况系统与系统之间会产生目的冲突和互动,在存在机器学习甚至深度学习的情况下,不同人工智能系统之间的互动关系势必极其复杂而变幻莫测。而且机器学习的效果越精准、深度学习的功能越强大,算法的含义就会变得越来越难以理解和说明。例如,2017年5月中国最高段位的围棋选手柯洁与AlphaGo对弈以零比三失利,后者留有的五十份自我对战棋谱让所有专业棋手都觉得不可思议,从专业知识和经验的角度他们无法参透人工智能在机器学习之后根据概率进行这种貌似“臭棋”走法的缘由。但正是这些出其不意、攻其无备的走法使得AlphaGo大获全胜。这正是人工智能算法可能变得无法理解和无法说明的一个典型例证。在这种情况下,人对人工智能系统运作的介入和监控究竟有多少意义呢?因此,在自然人无能为力的地方,只好以人工智能来监控人工智能,通过不同的技术进行互相制衡也许是解决上述难题的一条思路。

在无法理解和无法说明的场合,算法是黑箱化的。这样的算法黑箱化,实际上也使人工智能具有了不受约束的权力性,使在现代民主法治国家具有关键意义的问责机制名存实亡。立法机构的决定、司法机构的判断、行政机构的具体处分行为都需要给出明确的理由,以便据此防止主观任意性,给相对人以申诉和复议的机会。如果人工智能进行的预测、提供的结论无法说明其理由,就无异于用“莫须有”的名义来作出决定或者进行案件审理和制裁,且无从追究决定者是对还是错的法律责任。可想而知,欧盟《通用数据保护条例》明确规定不能让人工智能独自进行自动化决定的主要原因就在这里。但是,随着人工智能在国家治理和法律制度运行中广泛渗透以及算法难以理解和说明,在很多应用场景下人们其实很难有效监控人工智能;相反,人工智能倒很容易成为人们转嫁决策风险、逃避问责的一种重要手段。毋庸讳言,在中国的“智慧法院”建设过程中已经或多或少出现了这样的偏颇。另一方面,应用人工智能对大数据进行分析和学习,可以充分掌握社会心理和舆情的变化,对不同群体以及个人的行为进行精准的预测,这就会使国家对社会的监控能力和支配能力大幅度提高。在这种状况下,如果不能相应地提高民主问责的水准,权力滥用的危险也将渐次增加。然而对人工智能辅助的决定进行民主问责,势必要求对算法的说明和人们对算法的理解,可如前所述往往具有困难。于是,在这里出现了一个算法与问责互相纠缠的悖论。

三、第四次产业革命与宪法体制创新

(一)现代宪法精神与人工智能发展的现实需求

欧盟《通用数据保护条例》面临的更大挑战还来自第四次产业革命本身,来自对人工智能发展的强劲需求。按照现代宪法精神强调隐私权和个人信息保护,或多或少会引起虚拟空间的割据和碎片化,妨碍数据的大规模收集和应用,从而妨碍以数据为养料的人工智能系统以及智慧网络化社会的快速成长。站在公共利益或者社会福利的立场上来看,收集更多的数据、进一步加强人工智能的预测力显然是合乎理性的选项,有助于大幅度提高经济增长的效率,因此有必要通过让个人分类发展的“新集体主义”方式来实现整体的最优化。但是,如果接受这样的观点,那就意味着现代宪法体制的退让,有可能损害个人自由。

实际上,现代宪法体制也是产业革命的结果。如果从这个角度来看,第四次产业革命应该也有可能在相当程度上引发宪法体制的创新。如果试图在现代宪法体制下的人权保障原理与数字经济的迅猛发展这两者之间寻找适当的平衡点,那就需要深入探讨某种更适应人工智能时代需要的宪法体制,进行法治的范式创新,而不是简单地按照个人自由主义的标准来限定智慧网络化社会的变迁。但是,前面已经提到的各种问题又表明,如果不能切实保障个人信息安全和隐私权,人工智能的发展就很有可能误入歧途,破坏“以人为本”的原则,侵犯个体的自由和安全,造成机器官僚主义的冷酷统治和无所不在的恐怖。因此,当今宪法秩序演化的基本方向应该是把中国宪法第33条第3款“国家尊重和保障人权”的原理嵌入智慧网络之中,达成效率与公正、理性与温情之间的适当平衡。

(二)人工智能时代的社会治理方式创新

怎样才能达成这样一种理想的平衡状态?在这个方面,所谓以人工智能来监控人工智能、通过不同的技术进行互相制衡是否具有现实可行性?在对新冠病毒疫情进行防控期间,中国广泛应用互联网和信息沟通技术(ICT)进行社会治理,提供了颇有启迪意义的试行经验和教训。2020年,猛烈冲击全国各地的新冠病毒肺炎疫情,使得隔离突然成为一段时期内社会日常生活的特征,智慧网络化的技术和平台在汇集和分配信息、资源以及物资等方面发挥极其重要的功能。对疫区旅行者和疑似患者的排查、对隔离人员的监控、对救治病例的分析、对疫情发展的预测,都需要借助大数据和人工智能等科技手段,促进以电子政府和网络型政府为特征的国家治理方式创新全面提速。在这里特别值得重视的是区块链技术的广泛应用。例如上海市静安区临汾街道根据电子政府方案,在2020年1月启动了基于区块链协议的社区治理平台,推动十五分钟生活圈内的自治,试图在数字真实可信的基础上实现行政活动全程留痕和监控以及多方协同。在新冠病毒疫情防控中,这个平台又嵌入了预约登记和购买口罩等功能,显示了区块链技术在分散化、平面化社区治理方面的优势,体现了“一网通办”的制度设计思路。还有北京市的博云视觉科技有限公司开发的“智慧社区疫情防控网格化管理平台”,可以进行人体测温快速筛查、未戴口罩预警、陌生人员预警、进出记录管控、异常人员聚集预警、疫情信息采集统计和分析等,以适应春节后返工中社区的精细治理和可视化服务。

因为疫情防控的紧急状态,几乎所有城市和乡村都按下了中止键,施行了“空城计”,人人都进入“闭门自省”的状态。这样的体验以及由此产生的需求也许会为中国从零开始进行制度的理性设计提供一个重要的历史契机。如果说在西欧国家现代化进程中,“待从头收拾旧山河”的理性设计方案表现为关于人权保障、法治国家的社会契约论,那么不妨认为在当今中国,这种理性设计方案主要表现为关于信息公开、电子政府的互联网协议,可以包括人工智能技术和区块链技术这两个阶段或者层次。如果上述命题真的能够成立,那么全国停顿就不是多此一举,李文亮的牺牲也就不会化作无谓的泡沫。首先来看基于人工智能技术运作的电子政府。电子政府的基本目标或者特征是平面分散、互联互通、公开透明、数据安全,在价值体系上体现为平等、共享、协同、过程等偏好或者思想取向。不言而喻,通过把互联网的各种功能应用于行政和政治,政府的定位和作用势必有所变化,向群众提供公共服务的数量、质量、效率以及群众满意程度都会显著提高。

例如爱沙尼亚的电子政府计划是以数字身份证为核心拟订和实施的,嵌入的芯片里除了有持证人的基本信息外,还有两种证明资料:一种用于认证,另一种用于签名,凭各自设定的暗号登录使用。该证在公民中的普及率达到90%以上,所以大量的行政服务项目通过数字身份证来执行。公民通过数字身份证进行在线投票、缴纳税金、享受社保、进行体检和接受医疗——所有就诊记录和诊断档案都可以一证调阅,并自我决定是否向亲属或医生公开。交通和旅行也是一卡通,数字身份证可以作为乘车券或支付卡使用。数字身份证还可以用于网上银行的开通和利用、水电煤气费用的支付、学校教育(选课、提交作业、管理成绩单、与教师联系等)以及不动产登记、垃圾处理、环保等各种公共事业的服务项目,这就使行政与物联网密切联系起来。通过数字身份证,爱沙尼亚公民可以从全球不同居住地参加选举投票。通过电子居住制,非公民也可以取得数字身份证从全球不同国家向爱沙尼亚投资并申请设立公司。

在中国的新冠病毒疫情防控中,杭州市从2020年2月11日起利用大数据和互联网技术推出的“健康码”,通过不同维度答问打分的方式把居民分成三种类型进行区别化安排。持绿码者可以在市内自由通行;持黄码者要进行7天以内的集中或居家隔离,在连续申报打卡7天都正常后转为绿码;持红码者要进行14天以内的集中或居家隔离,连续申报打卡14天都正常后转为绿码。对于填报不实的,可以通过大数据进行鉴别,查实后一律定为红码,情节严重的还要采取惩处措施。这也是一种具有特定目的和时效性的数字化身份证。要使上述机制顺利运转,必须确保虚拟空间的安全。为此,爱沙尼亚的经验是建构了无钥签名的基础设施(KSI),使信息的记录和检索都可视化,确保政府记录的正确性以及合规性。这是借助区块链协议保证数据真实性的框架,不需要管理者,不需要对密钥进行管理和更新的手续,有利于提高行政效率,降低社会管理的成本。所以,接下来我们再来考察基于区块链技术运作的电子政府。

(三)基于区块链协议的电子政府与人权保障

众所周知,没有信赖协议是信息互联网的主要缺点。以比特币和P2P方式为基础的电子通货系统,实际上构建了一种分散式信赖网络,人们无须第三者或者权力的介入,通过直接的认证合作就可以达成信赖协议,也就是说使网络本身能保证相互信赖。在这个意义上可以说,区块链技术对于社会治理方式具有革命性意义。借助智能技术运作的电子政府,的确可以运用互联网和大数据为公民提供大量的方便,但与之相伴的代价是个人隐私的丧失,而隐私正是自由和自治的堡垒。区块链的本质是把个人隐私黑箱化,从而可以抗衡借助智能技术的外部操作。也就是以区块链技术实现隐私的黑箱化,从而制约人工智能技术,并力争改变黑箱化的算法。换个角度来看,如果说智能技术可以让信息处理系统的终端工作自动化,那么不妨认为区块链技术能使系统中枢工作也自动化。因而人工智能技术与区块链技术之间存在着相反相成的关系。为了确保个人参与同意的计算和共识的达成,区块链还以挖矿方式提供了充分的诱因,用以解决交易成本问题。在这里,利己的行动本身就可以构成公共利益的一部分,具体的智能合约就可以明确各自的权利义务。

电商、物联网以及移动通信系统在疫情防控的隔离状态下发挥了积极作用。由此也可以证明,通过大数据、人工智能以及信息合作提高业务效率、在公共服务中充分利用物联网、借助信赖网络突破地域和行业的樊篱等做法是必要的,也是可能的。结论就是疫情防控的经验已经显示行政和政治的区块链化势在必行。

区块链技术有可能形成社会治理的“路路通”格局。例如爱沙尼亚的电子政府计划利用区块链构建了所谓“X-road”的数据共享系统,把各种数据库和智慧城市项目融通无碍地联结在一起,使行政服务和民间服务能够互相衔接兼容,极大地提高了公共活动的效率,极大地方便了居民的日常生活和行动。前面提到的数字身份证系统并不是由国家集中管理,而是分散式的。包括出生证明、户籍、护照、驾驶证、投票资格等各种公共证书都用加密化的哈希值(联想配列)来表示,在区块链上进行分散管理和使用。在这里,可靠的数据安全技术保障了信息的正确性和私密性;数据查阅和更新的履历是可以确认的,公民可以及时获悉是谁接触了自己的个人信息;大量的作业是自我完成的,所以可以显著减少行政成本,同时还可以保证公共证书的正当性。区块链技术还可以用于基层选举。提供参与诱因的挖矿方式,意味着区块链可以通过制度设计吸引人们对社会问题产生兴趣、发表意见、根据共识制定更有说服力和执行力的政策。由于电子货币的密码确保不能重复使用,能够有效地防止重复投票行为,所以区块链技术可以建构透明化的、可靠的选举系统。通过在线会议、意见广场等方式,区块链技术也可以应用于协商民主,而不限于分散化投票。通过数据的可视化、可追踪性,区块链技术还有利于落实问责原则。

总之,人工智能技术的核心是程序算法,强调数据汇聚和预测精确性,侧重于法制的统一化和行政效率;与此相映成趣,区块链技术的核心是网络协议,强调的是管理分散和隐私权保障,侧重于法制的透明化和网络共识。这两者互相制衡的同时又互相补充,有利于电子政府的健全发展。前面曾经指出,以人工智能监控人工智能,通过不同技术进行制衡也许是解决算法黑箱化难题、根据人工智能时代的现实重构宪法体制的一条思路。在这里我们看到,人工智能技术与区块链技术之间相反相成的关系,为这条思路提供了现实可行的例证。

(四)机器人权与人工智能的责任主体资格

在探讨人工智能时代的宪法秩序创新之际,究竟应该怎样定位机器人也是一个很重要的问题。一般而言,生产率提高、经济景气上扬势必导致就业率的攀升。但是,从2000年开始,美国的经济效益越好,雇佣人数反倒减少,两者之间的差距不断扩大。不言而喻,其原因在于机器人取代自然人从事生产活动。根据麻省理工和波士顿大学的研究报告,每千名工人拥有的机器人数量增加1个,就业率就会下降18—35个百分点、工人薪酬也会下降25—50个百分点。鉴于这种情况,2017年2月17日,比尔·盖茨在接受数字媒体Quartz采访时曾经提出向机器人课税的建议,试图通过再分配的方式解决失业和社会福利问题。从法理学的角度来看,既然机器人可以成为责任主体,那么当然也应享有相应的权利——这正是机器人权论的主张。赋予智能化机器以法律人格乃至人权貌似一种迂阔之见,但其实是持之有据、言之成理的;特别是最近出现了用青蛙细胞生成的“活体机器人(Xenobots)”,作为一种可编程的有机体,使得机器与动物生命之间的界限已经非常相对化。随着医疗科技的飞速进步,实际上人的身体或脏器的相当部分都可以由人工产品构成,人机混合状态日益普及,这就使得机器人权的讨论具有越来越强的现实意义。2019年8月,在Youtube网站上发表视频的不少人发现,算法会自动删除机器人对战的视频。这是否构成机器人自我认知的征兆?在出现诸如此类的“机器觉醒”现象,特别是出现自律型人工智能之后,机器人的权利问题其实与动物、胎儿、植物人的权利问题具有类似性;在机器人的能力超过自然人的情况下,赋权的理由实际上也就变得更加充分。

一旦承认机器人权,随之而来的问题就是如果人工智能具有与人同样的能力、资格以及精神权益,中国宪法第33条第2款规定的法律面前的平等性是否也包括人工智能?鉴于猴子拿起傻瓜相机自拍和人机对话系统的歧视性笑话等实例,人工智能是否也可以享有宪法第35条规定的言论和表达的自由?现在已经有很多自动作曲、自动写诗、自动绘画的智能软件,由此产生的作品能否享有著作权?权利主体是谁?能否承认对这类作品的垄断性保护?如果承认的话,保护期间设定多久为宜?在中国,人工智能在司法和法律服务方面的应用已经非常广泛,并且得到政府的鼎力支持。在现行法律框架下,人工智能代行相当部分的法律业务是否违反了法官法、检察官法以及律师法?如果人工智能可以被赋予法律人格,那么可否也被赋予法官、检察官以及律师的任职和执业资格呢?如果回答是肯定的,就必须考虑设定什么样的准入门槛。关于人工智能系统的法律人格以及自然人和机器人在人格上的平等性,是数字化时代宪法学有必要认真讨论的一个重要问题。

四、结语:在智慧网络中寻找新的平衡点和组合方式

在上海召开的2019年世界人工智能大会法治论坛,通过了《人工智能安全与法治导则》,从算法安全、数据安全、知识产权、社会就业和产品法律责任这五个方面明确了相关的原则、政策和法律制度安排,体现了硬法与软法相结合的特征。关于算法的可理解性和可说明性,该导则强调对算法进行技术评估以及算法的技术伦理,要求构建软件质量和算法安全的检测体系。导则鼓励人工智能数据开放性保护,还对数据隐私问题给予特别关注,强调对采集和使用敏感个人数据的人工智能企业或行业加强法律的和行政的监管。在这里,不是像欧盟《通用数据保护条例》那样赋予数据主体提出异议、进行抵制的自由权,而是进一步加强法律和行政的监管,体现了中国传统治理方式的特征以及宪法观的差异。导则也注意到关于机器人纳税之议,提出了面向人工智能开展收入调节,提高社会二次分配的合理性和精准性的命题,但没有把机器人作为责任主体。中国倡议的做法是科学分配人工智能侵权的法律责任,要求人工智能设计者、生产者、运营者、使用者承担法律主体责任,并按照过错程度进行分担。在这里可以发现,导则还没有明确地提示处理各种规范冲突的元规则以及对价值进行排序的标准,这是一个缺憾。

人工智能在本质上是规则嵌入的系统,可以形成硬法的支配、创造全程留痕的条件,因而有利于加强对公权的制约。在这个意义上,人工智能可以贯彻现代宪法的精神。但是,人工智能的能力提升有赖于尽量增大数据的规模,势必会突破围绕私权的屏障壁垒,在相当程度上侵蚀隐私和个人尊严,甚至动摇自由的根基。另外,以对大数据的机器学习为背景,尤其是在智慧网络化的社会条件下,对算法的理解和说明将变得很困难,并自然导向算法黑箱化以及算法独裁。算法黑箱化实际上会在不同程度上妨碍对权力问责,同时也会助长回避责任和转嫁责任的不良倾向。数据偏误和算法歧视还会招致对现代宪法原则的抵制,削弱对公民基本权利的保障。

如果希望发展人工智能、提高其预测能力,同时又尊重和保障人权,就需要在算法与宪法之间达成适当的平衡,从而推动宪法理论和法治范式的创新。新型宪法观树立的一个关键是形成人工智能技术与区块链技术之间制衡的机制,并不断寻求科学理性、经济效率与人格尊严、社会公平之间的更优乃至最优的组合方式。

人工智能知识产权保护的现状与前瞻

知识产权制度是科技和产业发展的产物。而今,人工智能成为最新科技前沿的代名词,它是人类科技累积到一定程度,在互联网和大数据的直接推动下应运而生的。人工智能时代的到来,为知识产权保护带来新的课题。毋庸置疑,人工智能虽来势凶猛、前景无限,但无论是技术研发还是产业化都还处于发展初期,真正的实质性发展和产业化普及尚需时日。人工智能发展对当前知识产权保护虽已有所冲击,但还都是局部的和浅层的,尚未达到要求知识产权制度进行深刻和全面变革的程度。当然,理论研究需要未雨绸缪,需要具有预见性和超前性。当前,人工智能知识产权保护问题受到热议,有不少法理和方法上的前瞻性探索为研究者开辟了一系列想象空间。本文主要就人工智能知识产权保护的一些理念和态度问题提出一些思考。

制度应对:积极容纳与谨慎颠覆

在对人工智能问题的诸多探讨中,不乏所谓“人工智能正在颠覆现有知识产权制度的哲学认知和制度标准”之类的说法。尽管“未来已来”的人工智能确实正在产生新的保护客体(如数据产品),创造新的保护领域(如算法的竞争法调整问题),以及带来保护标准的适应(如算法的专利授权标准),但简单断言人工智能对于知识产权制度形成颠覆还为时尚早。

历史地看,知识产权制度历经300余年,总是不断受到新科技和新产业的冲击,虽在制度上不断完善和理念上不断更新,但基本体系是相对稳定、稳步变化的,革新和变化更多是在保持基本体系稳定的前提下逐步完成,而不是动辄发生颠覆性改变。例如,版权制度产生于传统的手工制书时代,后来随着印刷和传播技术的发展屡受冲击,使得版权制度不断扩容,不断增设新内容和拓展新边界,但新的拓展都是在原制度的基础之上,通常不轻易颠覆基础性制度。再如,印刷术的产生催生了复制权;广播电视技术的发展催生了传播权;互联网技术使版权保护从纸质时代进入数字时代,催生了信息网络传播权;等等。但是,每一次制度创新都是在原制度之上的变革、扩展和丰富。只是经过相当长的历史时期进行回望时,屡经阶段性变化的法律制度与最初相比可能发生了翻天覆地的变革,而这种变革恰恰是在长期历史过程中累积形成的。

有人认为,人工智能的出现不同于以往任何技术对于知识产权制度的冲击。这种断言为时尚早。尽管机器人、智能创作、算法、大数据等新概念新术语令人眼花缭乱,但现有法律体系具有足够的容纳力,对新客体进行审时度势的调整。司法实践中已经出现的数据产品案、人工智能生成物著作权案等涉人工智能案,都采取了此类裁判态度。

概括而言,涉及人工智能的冲击与解决的情形有以下几种:其一,现有制度的自然涵盖。如算法的专利保护,无非是在现有专利授权标准之下,根据促进人工智能发展的需求,划分出可授予专利的“技术方案”和不具有可专利性的“智力规则”。利用人工智能创作的作品,基本上仍然纳入现行著作权主体和客体进行衡量。数据产品已纳入民法总则和反不正当竞争法的调整。其二,在发展中谨慎应对。例如,大数据背景下的数据产品涉及的利益关系复杂,民法总则尚未直接将其定位为民事权利,但实践中已产生保护的需求,当前的司法充分发挥反不正当竞争法的“权利孵化器”的作用,先肯定数据产品为受保护的法益,并依法给予保护。数据产品能否和如何上升为权利,仍有进一步探索的空间。其三,在现有制度之外开辟新领域。即在上述路径不能容纳时进行制度创设,这种情形多少有些颠覆性。总之,对于人工智能带来的知识产权保护新问题,在现有法律框架下应对的基本态度是积极容纳、谨慎颠覆。

科技创新与产业发展:制度变革的决定性力量

人工智能知识产权保护制度的架构和设计必然服从于和服务于创新与发展的现实需求。实践中,当知识产权法律规则适应科技创新和产业发展需求时,法律规则具有规范其发展的功能;反之,科技创新和产业发展必然以各种方式突破现有制度藩篱,最终建立新的适应性制度,实现制度规则的除旧布新。可见,知识产权保护的制度设计应充分体现科技创新和产业发展的需求,为创新和发展创造空间。例如,在信息高速公路和互联网兴起之初,美国克林顿政府曾发布绿皮书,试图沿着着重强化版权保护的旧轨道和原思路,呼吁在互联网环境下着重加强版权保护。但是,互联网环境迎来了权利人、网络服务提供者和社会公众的新利益格局,尤其是科技创新和产业利益的保护受到突出关注。在新旧各方利益博弈之下出台的数字千年版权法创设了避风港、红旗标准、通知删除规则等新的制度设计。这些新的制度设计,显然不是从已有法理推论而来,而是立法者依据现实情况的变化,综合考虑科技创新和产业发展需要作出的法律回应。同样,人工智能的知识产权保护也必须充分考虑科技创新和产业发展的需求。

知识产权具有独特的利益平衡机制,其最根本的利益平衡是权利保护与公有领域的比例关系,即以最大化创新激励为公约数,合理确定权利保护的边界和强度,留下必要的公共空间,以确保创新的可持续性。例如,软件发展初期,20世纪70年代美国曾经就软件能否纳入版权保护进行过讨论,为解决该问题美国国会还专门成立“版权作品新技术使用国家委员会”,提出了采取旧瓶装新酒的方式,将计算机程序视为文字作品进行保护的研究报告。计算机软件中的语言表达显然迥异于传统的文字作品,美国将计算机软件作为文字作品进行版权保护,显然主要不是由传统版权法理推论而来,而是主要考虑到,填补对计算机软件进行版权保护的法律空白,有助于促进计算机技术和软件产业发展。此后,这种做法被写进了WTO项下的TRIPs协定。在今天,人工智能的发展催生了知识产权保护新议题,在确定是否以及如何保护的态度时,立法者的利益平衡考量也必须以是否有利于人工智能科技创新和产业发展为前提。例如,人工智能创作物的可版权性问题情况复杂,有的创作物存在较多的人的干预因素,有的则更多是人工智能本身创作的。以人工智能作为工具的创作物,其可版权性更适宜以现有的法律标准进行衡量。但对于人工智能独自完成的创作物的可版权性问题,应当以更好地处理权利保护与公有领域的关系,以及如何更有利于激励创新和促进产业发展的需要,决定是否保护和如何保护。如果将纯属人工智能创作物的“作品”纳入公有领域更利于创新和发展,可以否定其可版权性;否则,可以进行保护。

现阶段,人工智能科技和产业涉及的知识产权保护仍主要是在现有制度体系内完成,更多是解决现有制度如何适应和适用问题。在现有制度框架内,首先是纳入和兼容,在无法纳入和兼容时进行零星的或者局部的创新和突破,对于现有制度的革命性颠覆很少发生。总之,既不能保守和墨守成规,又不能盲目冒进,而必须以需求为基础和实事求是。该突破时毫不犹豫突破,无需突破和颠覆时仍应进行兼容性和调适性适用。

实现自然人利益:人工智能知识产权保护的关键

人工智能是对于当今更具有人或者超人色彩的智能科技发展阶段、技术、产物和趋向的一种定义和表达,但无论如何,其毕竟是人类科技发展的一个阶段、过程和趋向,是人类主导之下的一种科技进步和成就。无论当前对于人工智能的“智力”和“创造力”有多么新鲜和惊人的描述与预测,无论人工智能的前景是恐怖还是诱人,人工智能的知识产权保护都需要以人为核心。在知识产权保护制度设计中,应当以人的需求为主导。与任何既有法律体系一样,自然人仍是人工智能知识产权保护制度最核心最根本的法律主体。自然人以外的法律主体和制度设计,都必须服务于人类的利益需求。

例如,国内外知识产权法学界正在热议机器人是否具有主体资格问题,如具有深度学习、思考和创造能力的机器人是否可以成为权利主体,赋予其法律人格,从而使其能够享有著作权、专利权等知识产权问题。譬如,英美等国家的哲学家、科学家和法学家正在讨论能否赋予机器人虚拟的法律人格。2016年欧盟委员会法律事务委员会向欧盟委员会动议,将最先进的自动化机器人的身份定位为“电子人”,赋予其特定权利义务。2017年沙特甚至石破天惊地授予智能机器人“索菲亚”公民资格。但是,无论这些讨论和做法如何喧嚣,在以自然人为中心的制度设计框架之下,即便是需要拟制的人,如法人,归根结底都是人类的工具,最终都是自然人实现利益最大化的制度设计。在人工智能时代,是否赋予机器人以法律上的人格,也必然以是否为促进科技创新和产业发展所必需为根本标准。即便是赋予机器人知识产权主体资格,也不过是借此更好地实现自然人的利益,使之成为更好实现人类利益的制度工具。

(作者:孔祥俊,系上海交通大学讲席教授、凯原法学院院长、知识产权与竞争法研究院院长)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇