博舍

构建人工智能未来法治体系 人工智能发展的思考总结怎么写啊

构建人工智能未来法治体系

核心阅读

    任何技术都是双刃剑,人工智能也不例外。在享受最新技术带来的便利时,不能忽视与之相关的安全问题。要用法治为人工智能产业健康发展保驾护航,让人工智能服务造福人类社会。

    从智伴机器人到自动驾驶汽车,再到法院庭审中的智能语音识别,近年来,人工智能已逐渐进入人们的日常生活。

    “深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”今年政府工作报告让人工智能产业看到了前进的方向。

    在人工智能迅猛发展的进程中,关于可能引发的道德伦理问题,可能带来的社会治理问题争议不断。

    推动新一代人工智能健康发展,法治应该有哪些作为,或者说人工智能产业健康发展到底需要怎样的法治保障?近日,《法制日报》记者采访了人工智能产业领域、法律界的相关代表、委员,以及人工智能法律研究的相关专家学者。

人工智能发展亟需立法保障

    几天前,全球首例无人车致死案宣判,Uber公司不承担刑事责任,再次引发了公众对人工智能发展中法律问题的热议。

    “如何推动法律体系与时俱进,尽快满足人工智能产业飞速发展和社会进步的需要,这对法治带来了很大挑战。”全国人大代表、科大讯飞董事长刘庆峰说。

    与刘庆峰观点一致,在记者采访的代表委员中,无一例外都提出应加快人工智能立法工作。

    全国人大代表、中华全国律协副会长刘守民认为,立法一方面要对人工智能发展做引领,另一方面也要规制如发展目标、路径和阶段。但由于人工智能发展飞快,立法往往跟不上发展速度。

    关于法律滞后,全国人大代表、重庆盼达汽车租赁有限公司党支部书记、总经理高钰有不同看法:前沿的技术变革和创新的商业模式带来的不确定性,也决定了相关的立法工作会有滞后性。

    “但新生事物并非排斥法律法规的制约,相反,法律对于新兴商业模式和技术创新的有效规范和制约能更好地引导企业、行业健康有序发展。”高钰说。

    由于人工智能涉及的领域众多,不同领域涉及的立法也存在差异。因此,全国人大代表、北京市律师协会会长高子程建议,前期可在重点领域,比如交通、医疗等先行试点专门立法,待总结经验后再进行综合系统立法。

    全国人大代表、致公党上海市委专职副主委邵志清也有类似的建议:“由于涉及面太宽,社会对人工智能的认识还处于初步阶段,目前对人工智能进行综合立法的条件还不具备。但是为了防范重大风险,需要针对人工智能的具体应用进行立法。”

    对于立法到底应该从哪些方面进行,基于自己的专业实践,受访者都有不同的认知。

    刘庆峰指出,算法、算料(数据)、算力是人工智能技术发展的重要支点,需要有针对性地予以立法规制。

    而在高子程看来,还应立法应明确规定人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等亟待解决的内容。

    邵志清告诉记者,人工智能应用的管理应该重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。

    “人工智能立法已不仅是一个国内法的问题,这是人类共同面对的课题。”刘守民认为,人工智能发展还需要国内与国际间的协调,通过国际的公约条例,包括技术标准等领域形成共识。

规范司法加强执法不可或缺

    “用法治的手段保障人工智能‘安全、可靠、可控’,也是欧、美、日、韩等国发展人工智能产业的必经之路和共同经验。”西南政法大学人工智能法学院院长陈亮说。

    在陈亮看来,立法只是法治保障人工智能发展的其中一环:执法、司法等环节同样不能偏废。

    高子程也认为,完善立法,规范司法,加强执法,加大普法,积极构建人工智能未来法治体系,用法治保障人工智能健康持续发展。

    “在司法中,要坚持法治理念、法治思维和法治方式,树立谦仰、审慎、善意、文明、规范办案理念,恪守技术中立原则,不轻易对司法机关看不准、有市场、受欢迎的技术业态产品采取强制措施,最大限度减少司法活动对新技术发展的不利影响。”高子程说。

    在高子程看来,司法还应坚持刑法的谦抑性,在其他法律规范足以保护相应法益的前提下,刑法不应首先介入,只有在其他法律规范无法充分有效保护相应法益时,刑法才有介入的必要和空间。

    “在执法环节,应建立专门的执法部门,明确其职权范围,规范其执法程序。”陈亮认为,尤应注意的是,在制度设计时,应以委托代理理论为指导,从制度层面解决好该执法部门的参与约束和激励相容的问题,以免执法过程中出现委托代理人问题,导致人工智能立法流于形式。

    为让执法真正有成效,高子程认为,应组织相关执法部门专责制定人工智能领域配套的各种技术规范、技术标准,这个标准应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。

伦理及安全问题不容忽视

    从目前已经投入使用的人工智能产品中看,部分智能庭审系统甚至已经能够基本代替书记员的记录工作,加快了庭审进度。

    人们不禁会问,当人工智能广泛应用之时,一些可以替代的传统行业是否会造成大量的失业,造成社会的不稳定。

    “解决这些问题首先是在人工智能大规模替代现有工作之前,把社会保障体系建立起来。”刘庆峰说,在社会保障体系之下,人工智能代替了重复性工作后,人会有更多的时间去做创意等不能替代的事情,从而获得社会价值感。

    刘庆峰认为,人机合成是未来人工智能的重要突破方向。他举例称,目前“智医助理”可以根据医嘱对话,自动生成对疾病的判断,供医生参考确认。“所以我想人工智能并不是要淘汰人类,而是要让人类站在人工智能的肩膀之上。”刘庆峰说。

    对于人类与人工智能的关系,刘庆峰还是很乐观。他认为,人工智能立法应当遵循“人机耦合”和“以人为本”原则。

    “这意味着要充分认清人工智能是帮助人的,而不是替代人的,要刺破技术面纱,有针对性地规制技术背后人的行为;意味着要把人民群众的生命和财产安全放在首位,实现人工智能在风险可控的范围内发展。”刘庆峰说。

    不论乐观与否,人工智能立法在伦理道德方面还是要有明确规定。

    邵志清认为,应明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。

    “对人工智能要抱有一定的尊重和敬畏,技术进步带来的东西不见得都是好事,一定要慎重,避免出现有悖伦理道德的事情。”刘守民说。

    全国政协委员、360集团董事长兼CEO周鸿祎也认为,任何技术都是双刃剑,人工智能也不例外。“但我们在享受最新技术带来的便利时,也不能忽视与之相关的安全问题。”(法制日报记者战海峰)

人工智能发展中的法律问题研究

●应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担相应的义务。同时,应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。

●目前由人工智能生成的内容不适合获得版权保护。具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。

●人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,为人工智能寻求一个健康的市场环境。在反不正当竞争的公法规制方面,应迎接三个方面的挑战,即《反不正当竞争法》一般性条款的泛化运用、商业秘密及数据反不正当竞争保护的不足。在反垄断的公法规制上,应对通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为加强规制。

人工智能发展中的法律问题研究[①]

课题组长:童 潇

课题主要成员:董笃笃 王 哲 李 爽 夏海斌

课题参与成员:贾雯婷 尹丽湘 尤文韵 吴俊燕 殷明君王雪原 毕 明 张 冰 褚宏俐 陈 杨 

 

引 言

自1956年人工智能(ArtificialIntelligence,AI)的概念首次提出至今,人工智能在制造业、金融业、医疗行业、服务业、交通运输、安全防御等领域的应用成果有目共睹,深刻地改变了人类的生活、生产和工作方式。随着第三次人工智能浪潮的开启,人工智能的发展正进入新阶段,呈现出深度学习、跨界融合、人机协同、群智开放和智能操作等新的模式特征。然而,与之相伴而生的是,人工智能时代也不可避免将对社会秩序的维持产生不容忽视的冲击,作为维护社会秩序屏障的传统法律体系,已不足以调和新的冲突与矛盾,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等现有法律体系均同人工智能所带来的生产生活变化形成相应冲突的同时,相关人工智能的法律问题也引发了法学界的重点讨论和研究。

在人工智能的法律问题研究广泛展开之后,课题组通过对现有文献的梳理,发现目前的研究方向总体更趋向于以法律作为一个外部框架来探讨法律如何应对人工智能发展形成的各种新型法律问题及如何对于人工智能的发展进行规制。在这一方面的研究中,既包括针对目前的弱人工智能(ANI)的实际应用进行法律规制的相关研究,也包括对于未来的强人工智能(AGI)可能在人类社会所引发的问题进行预测性的研究,甚至还包含了对于未来的超人工智能(ASI)会造成什么样的颠覆性后果、是否对其进行严格法律约束的相关思考。对比三个层次的研究,由于弱人工智能事实上已出现在生产生活的方方面面,相关法律问题已逐步出现并急需得到解决。同时,对弱人工智能在具体应用实践中所作出的法律体系回应也比较容易整合入现有的法律体系框架当中。因此,本课题所立足的人工智能语境,并非比较超前且理想化的强人工智能范畴,而是基于当下现实的弱人工智能范畴,不将强人工智能乃至超人工智能纳入讨论范围,而仅限于探讨分析弱人工智能时代对现有法律体系可能造成的影响与挑战。

在此背景下,本课题重点选取人工智能法律主体资格、人工智能著作权保护及人工智能的市场准入和规制这三个较为突出的重点法律问题进行逐一分析,并提出一定的应对构想与思路,以进一步促进我国人工智能产业健康发展和相关法律体系的进一步完善。

一、人工智能的概念和发展现状研究

(一)人工智能的概念和特征

要在法律的框架中讨论人工智能,首先要明确的是其法律地位问题,人工智能享有何种法律地位,直接影响着如何对人工智能进行保护和规范,进而影响着人工智能和人类的未来。在讨论人工智能法律地位问题之前,应先对人工智能的相关概念加以界定,以为后文相关问题的展开和研究打下基础。

1.人工智能的概念

(1)人工智能的定义

2017年7月,我国发布《新一代人工智能发展规划》,从顶层设计上为人工智能的发展铺路。人工智能经过半个多世纪的发展,目前仍缺乏通用定义。人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。自20世纪90年代以来,国内外学者从不同角度,对人工智能的定义做了大量研究。课题组通过对相关人工智能定义进行总结,将人工智能定义分为三类:“功能相仿说”、“智能模拟说”和“生物构建说”。

1)功能相仿说

功能相仿说侧重对人工智能产出效果的重视,即以人工智能最终实现的智能产出能够满足人类生产生活需求为核心目标,至于其智能衍生的过程是否根据人类智能活动来进行模仿,不是该学说关注的重点。其代表人物如美国计算机科学家PeterNorvig,其将人工智能定义为:对计算机系统如何能够履行那些只有依靠人类智慧才能完成的任务的理论研究。[②]美国斯坦福大学尼尔逊教授将其定义为:怎样表示知识以及怎样获得知识并使用知识的科学;美国麻省理工学院的温斯顿教授将其定义为:研究如何使计算机去做过去只有人才能做的智能工作。[③]我国钟义信教授认为:人工智能就是探索人类智能(自然智能的最佳代表)的工作机理,并在此基础上研制各种具有人类智能水平的人工智能机器,为人类各种活动提供智能服务;[④]美国高盛集团发布的《2016高盛人工智能(AI)生态报告》将其定义为:制造智能机器、可学习计算程序和需要人类智慧解决问题的科学和工程。

2)智能模拟说

智能模拟说侧重于认为人工智能中智能的实现过程需要模拟人类的思维方式来进行,即相关认识、心理和决策等思维过程是模仿人类的思考方式进行的。相关代表人物中,闫志明教授等认为,人工智能是一个模拟人类能力和智慧行为,涉及计算机科学、控制论、信息论、神经生理学、语言学、心理学等的跨领域学科。[⑤]蔡曙山等认为,人工智能,就是让机器或人所创造的其他人工方法或系统来模拟人类智能;[⑥]阿里云研究中心2016年发布的《人工智能:未来制胜之道》将其定义为:研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学;北京36氪研究院2017年发布的《人工智能行业研究报告》将其定义为:使用机器代替人类实现认知、识别、分析、决策等功能,其本质是对人的意识与思维的信息过程的模拟,是一门综合了计算机科学、生理学、哲学的交叉学科。

3)生物构建说

生物构建说侧重于认为人工智能不仅思维模式需要模拟人类,连其相关产品的结构也应模仿人类的构造来生成。其代表观点中,卡内基梅隆大学认为,人工智能,即当人造物展现智能行为时,它的表现基于人类所使用的相同方法。[⑦]例如,考虑一个具有听觉的系统,弱人工智能仅仅关注系统的表现,而强人工智能支持者的目标在于,通过模拟人类听觉系统,使用等效的耳蜗、听力管、耳膜和耳朵其他部分的部件(每个部件都可以在系统中执行其所需执行的任务)来成功地获得听觉。弱人工智能的支持者单单基于系统的表现来衡量系统是否成功,而强人工智能的支持者关注他们所构建系统的结构。

课题组偏向支持功能模仿说,即人工智能主要是为了解决目前实际困难和需求而存在的,人工智能只是在大多数时候会用上人的智能的模拟,但并不全是模拟人脑的思维的。课题组认为可将人工智能定义为:人工智能是为了进一步提升生产效率及丰富人类生活,研究、开发接近或超过人类智能水平的计算机系统和技术,并广泛应用于人类生产、生活的科学和工程。

(2)强弱人工辨析

目前,多数观点认为强人工智能有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能被认为是有知觉的,有自我意识的。强人工智能可以进一步分为两类:一是类人的人工智能,即机器的思考和推理就像人的思维一样;二是非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。多数观点认为弱人工智能技术不可能制造出能真正推理和解决问题的智能应用,这些应用只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。主流科研集中在弱人工智能上,且一般认为这一研究领域已经取得可观的成就。强人工智能的研究则处于停滞不前的状态下。

课题组认为,强人工智能和弱人工智能最本质的区别在于意识的自主性和创造力,在于其处理逻辑的模式,前者是主动获取的,后者则是被动接受的。

强人工智能是以自身为主体,通过观察、总结、尝试、验证等一系列学习活动,从环境中抽取出合适的逻辑,来解决相似的输入、输出问题,同时对处理结果进行评估,修正原有的处理逻辑,其处理逻辑是可以在线动态完善的,其不仅可以向他人学习,还可以直接向大自然学习。因此,强人工智能一定程度上可以不接受人类制约,拥有独立发展的能力。就像许多科幻电影和小说中所描述的那样,强人工智能充分体现了人类在人工智能相关研究上的探索和追求。强人工智能不仅在哲学上存在巨大争论(涉及到思维与意识等根本问题的讨论),在技术上的研究也具有极大的挑战性。强人工智能当前鲜有进展,美国私营部门的专家及国家科技委员会比较支持的观点是,至少在未来几十年内强人工智能难以实现突破。

弱人工智能是以自身为客体,软件工程师为主体,根据市场应用需求,设计出相应的处理逻辑,并写成程序,直接灌注到系统之中,形成系统的处理逻辑。当环境发生改变,即输入、输出不再契合时,弱人工智能处理逻辑的改变只能依靠软件工程师来更新、修复。弱人工智能的智能和行为一般为人类所控制,其根本没有意向状态,只是受电路和程序支配简单地来回运动而已。[⑧]迄今为止的人工智能系统都还是实现特定功能的专用智能,如拟合股票市场的某个规律并做出预测、拟合用户偏好并做出推荐,或者像Alfago拟合围棋的取胜规律。目前的主流研究仍然集中于弱人工智能,并取得了显著进步,在语音识别、图像处理和物体分割、机器翻译等方面取得了重大突破,甚至可以接近或超越人类水平。

法律的制定可能超前于现实但不能偏离现实,基于以下几点现状考量,本文探讨人工智能发展中的法律问题主要集中于弱人工智能时代发展将带来的法律问题,并提出解决方案。究其缘由,其一,从逻辑上来说,课题组认为强人工智能弊大于利,将会给社会带来不可估量的道德伦理风险。如以强人工智能机器人犯罪为例,如果一台先进的机器人犯了罪,那么它应该如何接受法律制裁?律师如何去证明非人类的机器人有“犯罪心理”?这一点可以通过借鉴或调整现有的法律原则来实现吗?其二,从技术上来说,主流人工智能研究的方向从来就不是朝向强人工智能方向发展,现有技术的发展也不会自动地使强人工智能成为可能。目前我们所处的阶段,人工智能依然依赖于专家设置的系统结构体系,人工智能的学习性也依赖于人所拟制的算法来运作,如智能法律机器人、特斯拉的辅助驾驶等应用,这与强人工智能(有意识的、能知觉)还存在着巨大的断层。其三,从市场方面来说,在现实层面,人工智能技术取得的成绩都是弱人工智能领域的,如苹果的Siri在语音识别、实时翻译等方面取得的成功,IBM的“深蓝”在运算方面取得的成绩等。即使谷歌制造的AlphaGo在深度学习层次取得了进步,也是某种特定类型的智能行为。正如专家所说,“人机大战对于人工智能的发展意义很有限。解决了围棋问题,并不代表类似技术可以解决其他问题,自然语言理解、图像理解、推理、决策等问题依然存在,人工智能的进步被夸大了。”强人工智能的提出者约翰·罗杰斯·希尔勒本人亦不相信计算机能像人一样思考。

2.人工智能发展的特征

最近几年,随着人工智能技术的突破,以及互联网、大数据、并行计算等相关技术群的成批成熟,人工智能技术在快速的更替换代中不断发展。我国专家认为,人工智能技术发展和产业应用正在双双进入临界点,人工智能正在进入2.0新阶段。当前,人工智能发展呈现突飞猛进的势头,具有以下三个方面的显著特征。

(1)智能高效性

人工智能同其他机器及相关产品的最主要区别在于人工智能具有了一定的人类的智能,相关算法、数据和基础硬件使人工智能的智能性得以实现,是人工智能技术的灵魂。目前在人工智能的多个研究领域都在向认知智能挑战,如图像内容理解、语义理解、知识表达与推理、情感分析等,这些认知智能问题的突破,将再次引发人工智能技术的飞跃式发展。Facebook提出在未来5至10年,让人工智能完成某些需要“理性思维”的任务;“微软小冰”通过理解对话的语境与语义,建立用于情感计算的框架方法;IBM的认知计算平台Watson在智力竞猜电视节目中击败了优秀的人类选手,并进一步应用于医疗诊断、法律助理等领域。

(2)成长自主性

人工智能发展另一显著特征在于其成长自主性,不同于其他产品和设备需要完全通过人类的指令和系统的更新来完成产品的升级,人工智能通过深度学习和自主学习等算法便可以在提供基础数据养料的情况下不断适应和成长。人工智能技术虽然目前无法像人类一样思考问题,但其具有学习能力,其智能的实现依托于大量的学习,可能一开始也经常出现错误,但它能吸取教训,这样就保证了人工智能能应对更多的复杂情况。2016年初,谷歌AlphaGo战胜韩国围棋世界冠军李世石的围棋人机大战,成为人工智能领域的重大里程碑性事件,人工智能自主学习应用系统的智能水平再次实现跃升,初步具备了直觉、大局观、棋感等认知能力。

(3)产品颠覆性

人工智能发展的第三显著特征在于其相关应用产品对目前生产生活具有颠覆性冲击。目前,人工智能应用系统已经在多个领域启动并取得重要进展,包括:计算机科学、金融贸易、医药、诊断、重工业、运输、远程通讯、线和电话服务、法律、科学发现、玩具和游戏、音乐等诸多方面。应用系统是最直接的生产力工具,能利用人工智能技术优化工作流程,大大提高生产效率;同时,在人类社会生活中,人工智能的应用也会改变甚至颠覆人们的生活方式。例如,无人驾驶技术难点不断突破,自动驾驶汽车已经得到美、英政府上路许可;各类语音控制类家电产品和脸部识别应用在生活中已随处可见;德勤会计师事务所发布财务机器人,开始代替人类阅读合同和文件;IBM的沃森智能认知系统也已经在医疗诊断领域表现出了惊人的潜力,诸多人工智能产品都显示出对传统生产、生活的巨大冲击力和影响力。

(二)人工智能对传统法治体系带来的冲击与挑战

人工智能是一种新兴技术,在我国将其作为提升综合国力、占领未来科技主导权的重要发展战略的同时,我们不可忽略人工智能技术发展对传统法律体系的冲击。本课题将从人工智能法律主体资格、人工智能创作物的著作权归属及人工智能的市场准入和规制等三个方面论述人工智能对我国法治建设可能带来的相应冲击,以及我国法治建设应如何做出相应的回应。

1.人工智能对法律主体资格的冲击与挑战

机器人是机器还是人,在法理上涉及主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。若将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。

当人工智能自主作出决策,并影响人类的自由意志和生活方式这种情况出现时,如何控制人工智能系统,使它们在积极的社会活动中不会干扰人类的权利;在人工智能造成损害时,即便是出于善意的驱使,如何确保这些损害得到弥补或赔偿等问题,都值得人类思考。随着人工智能尤其是强人工智能的拟人化或者说智能化程度的不断提高,它不仅仅是外在表现形式和语言行为越来越像人,有时它也会不受人的控制自主行动,一个不可避免的问题摆在人类面前,我们该如何对待智能机器人;当人工智能产生法律纠纷时,人工智能是否可以独立承担部分主体责任。机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,是否可以将其作为拟制之人以享有法律主体资格值得人类思考。

2.人工智能对著作权归属带来的冲击与变革

传统理念中,知识产权法为人类的精神劳动产生的智力成果提供保护,通过赋予垄断性权利来激励创新活动与知识分享,从而促进整体社会效益的提升。劳动价值论、功利主义说等知识产权的基础理论,主要围绕着人类自身展开。而人工智能产生的创造性成果由于缺少人类智慧性因素的充分融入,能否成为著作权法保护的客体引发了学界和理论界的广泛讨论。[⑨]

人工智能作品的出现,颠覆了人们对于作者与版权、发明家与专利等带有人身性质的知识产权权利义务关系的传统认识。例如美国媒体盘点了2016年世界范围内计算机创意项目,发现人工智能已经可以谱写流行歌曲,撰写小说、电影剧本,甚至绘画,乃至生成诗篇和散文。人工智能用于文艺创作,无论在表现手段、创作格局,还是拓展想象空间方面,都值得重视。人工智能创作物的诞生,无疑打破了以往仅能由人类创作作品的规律。

虽然使用人工智能进行创作设计研发阶段的成本高,但投入使用后创作周期短、创作数量大,其在艺术创作领域的活跃发展引发了关于人工智能创作物著作权保护的争议。不管是保护还是不保护人工智能的创作物都有一定的弊端,如果给予人工智能创作物版权保护,可能会导致版权作品数量急剧增长,并在某些领域对人类作品造成冲击,且人工智能作为创作主体的资格亦备受质疑;如果不保护人工智能的创作物,则会出现人工智能创作物大量涌入市场,有可能助长抄袭、搭便车等不正之风。[⑩] 

3.人工智能对市场带来的冲击与变革

拥有海量数据资源和强大算法支持的人工智能系统正在影响甚至替代个体进行决策,然而在算法偏差和机器歧视的影响下,社会问题的出现屡见不鲜。例如,由科技巨头微软公司研发的人工智能机器人Tay,能够模仿人类用户的评论,并根据互动情况去发表自己的评论,在首日投入使用中就吸引了众多用户的关注,但Tay在某些用户的“指引”下,不仅辱骂用户,还发表种族歧视和性别歧视的言论。同时,谷歌的算法歧视问题早已引起人们注意,相关调查发现,在谷歌搜索中,搜索黑人的名字会比搜索拜仁的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性会比女性看到更多高薪招聘广告。

人工智能在各个领域的运用,当前还只能说是刚刚起步。但从效率这一出发点来看,无论是国家还是市场都有较强的推动力来进一步推广人工智能的运用,在这个过程中,技术的进步也将以更高的速度表现出来。当人工智能被应用于本来就充满流动性、风险与不确定性的市场时,便可能带来既无创新价值,又危害巨大的灾难性后果。例如2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,美国证券交易委员会(SEC)花了半年的时间才搞清楚原来是不同炒家的计算机程序在相互竞争的过程中导致了失控。在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。[11]因此,未来有关人工智能的市场准入及市场规制问题,也值得广泛的关注和思考。

二、人工智能主体资格问题研究

在目前法律界对人工智能探讨的问题中,人工智能的法律主体资格问题一直是研究的焦点之一。课题组将分别从民事主体资格和刑事主体资格两个角度,对学术界的代表性观点进行梳理和总结,并就其中的法律问题进行探讨和分析。

(一)民事主体资格

在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。随着人类社会进入到智能时代,传统民法的主、客体框架已受到人工智能带来的相应冲击。一方面,人工智能与传统机器的区别在于其具有“人”的自主性;另一方面,人工智能与人的区别又在于其不能完全脱离人的控制而呈现出来的“物”性,因此,如何对人工智能的民事主体资格进行确认显得尤为重要。

1.学界观点

对人工智能相关产品的民法地位,即其是否具有人格属性的讨论比较多,代表性观点如下:

(1)电子人说

欧盟委员会法律事务委员会已于2016年5月31日向欧盟委员会提交动议,要求将最先进的自动化机器“工人”的身份定义为“电子人”(electronicperson),并通过法律赋予其劳动权等特定的权利和义务,同时建议为“电子人”开立资金帐户以使其享受劳动者的相关权利、履行相关义务。人工智能对民事主体制度的挑战,已经从劳动者的定义及劳动权利主体制度中拉开帷幕。2017年10月,欧盟议会法律事务委员会发布的《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)中,就涉及重构责任规则和考虑赋予复杂自主机器人以“电子人”的法律地位。

(2)代理说

“电子代理人”一词最早见于美国法学会和美国统一州法全国委员会拟订的《统一计算机信息交易法》。代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。这种学说无疑承认了人工智能的法律地位,但是它只能实施法律行为,在造成侵权时无法履行赔偿义务,其机器属性亦决定了它不能完全享有代理人相应的法律权利。

(3)有限人格说

有限人格观点认为,首先,人工智能已经是一种“真实”“独立”且“自主”的存在。人工智能已经应用于自驾领域、教育医疗健康领域、金融领域、安防领域以及电商零售领域等,它可以借助人类提供的基础硬件设备对人类的生活造成各种各样的影响,特别是人工智能具备的自主学习能力将加速这种独立性和自主性。所以,赋予人工智能独立法律人格是其发展的内在要求。

其次,人工智能具有独立自主的行为能力和责任能力。虽然人工智能的诞生依赖于人类的预先设定,但是当人类预先设定之后,它可以在给定的框架内进行自我思考和自主学习,甚至有可能发展为类人主体。单纯以人工智能的存在是以人类智力活动为前提这一理由,并不能否定人工智能的自我意志。

再次,赋予人工智能法律人格是有效管控人工智能风险的必要手段。[12]人工智能的出现极大地改变了人类生活,它在很多领域会将人类从繁琐劳动中解放出来,使得人类实现自由的程度得以上升。但同时,在它的应用过程中,必然会引发对传统道德和价值观的冲击。所以,必须赋予人工智能法律人格,将人工智能纳入到统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来消解人工智能可能带来的风险和危害。

(4)否定说

否定说认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。[13]弱人工智能时代下模拟和扩展“人类智能”的机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。本质上属于“工具”的人工智能体并不能拥有民事权利能力。其次,尚无自由意志的人工智能所做的行为没有动机,无法产生一个以发生私法上效果为目的的意思表示,即人工智能和特定权利人之间也不可能存在代理关系,更不能适用限制行为能力人或无权代理人所做出的意思表示需要被追认的法律规则,即人工智能并不具有民事行为能力。

2.课题组观点

课题认为,强人工智能时代的到来将遥遥无期或许也并不可能实现。而即使强人工智能存在理论上的可能性,人类也很难同意世界上存在威胁人类生存的另一个高智慧群体的存在。因此仍限定于在弱人工智能的范围讨论是否赋予其民事主体的地位。本课题观点认为应赋予人工智能“有限”民事主体地位。

首先,需要明确的是,人工智能不同于以往的计算机。其不仅能够实现自己的任务,并且“当存在不确定的结果时,它能够实现最好的结果,而这个结果正是所希望实现的”。人工智能的行为与以往利用计算机所为的行为的本质区别就在于:人所起到的作用不同。以往计算机完全听命于人的操作指令,可以理解为是设计者辨认能力和控制能力的延伸。而人工智能基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据。某种程度上已经不再局限于设计者最初预定的程式,能够自行衍生出新的决定并实施。人所制定的算法规则或数据输入不再是人工智能行为的唯一来源。即人工智能机器人的行为存在着一定程度的自主性。这也正是我们讨论人工智能法律主体地位的必要原因之一。

其次,在一定程度上赋予人工智能民事主体地位符合现实社会需求。课题组认为,学界有观点直接从伦理和哲学层面否认人工智能民事主体地位而忽略了现实因素。民事主体资格的承认尽管要考虑到伦理性,但法律人格区别于伦理人格,法律发展到今天,伦理因素已经被弱化。法律人格的确立标准中,伦理性并不成为唯一因素,财产和责任基础的独立性以及社会功能的重要性已然成为重要考量因素。例如公司、合伙企业人格的确立,实质上是一种功利主义视角下特定自然人利益的延伸。民事主体赋予的衡量标准在于法律接纳该类主体应满足社会效益最大化和当事人利益最大化的要求,或者至少不会对特定人群的利益产生不利影响。[14]而对于人工智能的发展前景来看,可以预见到的是,在未来人工智能将更广泛地参与到民事活动中,改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。但是正如本文开头所强调的,智能机器人归根结底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定了智能机器人的发展必须遵循“以人为本”的价值原则,必须以保护、不侵犯人类权利为基本底线。

综上所述,课题组赞同赋予人工智能“有限的”民事主体地位。这种有限性主要体现在:其一,行为能力的有限性,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。例如,机器人能够签订合同等等。其三,责任能力的有限性,很显然,基于人工智能被发明的目的和从目前可以预见的未来来看,人工智能不可能像自然人和法人一样拥有属于自己的财产。因人工智能无独立的财产,其承担法律后果的能力是不充分的,另一方面如何证明智能机器人的侵权行为事实上已经脱离人的控制,是来自其自我学习、自我感知,进行相应的独立判断下的行为也存在着相当大的举证困难,也有可能引发转嫁责任的道德风险。因此部分责任后果最终还是要由人来承担。课题组认为可以以产品责任为原则,适用《侵权责任法》《产品质量法》等的相关规定追究销售者和制造者的责任。

3.人工智能参与民事活动配套机制构建

法律规范应当与人工智能技术发展相适应。在肯定人工智能具有有限的民事法律人格的条件下,也应在民事活动领域及时建立完善的配套机制。

(1)设立专门的人工智能监管机构

人工智能对于技术知识的要求比较高,需要有专业技术人才及监管部门配合才可有力监管。而现有的监管体制不足以对人工智能进行有效监管,因此需要建立新的监管部门,例如美国“机器人委员会”等对人工智能及相关产品进行专业监管。另外由于人工智能种类与功能繁多,无法保证每一类人工智能都被准确划归到某一行业进行监管,课题组建议可以将人工智能监管部门划分为多个片区进行精准化管理,比如分为家用型人工智能和公用类人工智能。

(2)建立人工智能登记制度

课题组建议建立人工智能登记制度,每一台人工智能产品都需到监管部门强制登记,获得“身份证”,同时确定其专属管理人。在登记时明确其生产应用的目的或用途,进而将其民事行为能力限制于其目的范围内。当人工智能产品从事超越其预定目的之外的行为致使他人损害构成侵权的,可借鉴公司法中“刺破公司面纱”理论的归责原则确定责任主体,即除智能机器人以其自身财产承担责任外,还可根据具体情况要求其设计者、制造者、所有者或使用者承担责任。

(3)建立人工智能强制保险或赔偿基金制度

人工智能技术一方面为人类造福,而另一方面也增加了人类无法预测的风险。鉴于此,为分散人类面临的智能机器人的侵权风险,课题组建议构建强制保险或赔偿基金制度。可要求智能机器人的所有者购买强制责任保险,用以补充智能机器人对受害人的赔偿。另外,也可以在引入强制保险的基础上,根据受益人共摊风险的原则,在包括人工智能投资者、开发者、生产者、使用者等多方受益人中构建人工智能保赔协会,当出现登记在保赔协会名下的人工智能侵权时,受害者可以要求保赔协会承担相应的责任。

此外,也有相关专家建议,在国家有关机关的主导下,构建人工智能赔偿责任基金。通过人工智能损害风险分摊机制,在满足一定条件的情况下,动用人工智能赔偿责任基金,按规定对受害人予以赔偿。这不仅有利于更好地保护受害人的权益,维护正常的社会秩序,而且为人工智能参与人类生产、生活活动提供了更好的保障。

(二)刑事主体资格

黑格尔认为,犯罪被视为理性存在者的行为,违法者通过他的行为表明其同意适用法的惩罚。现代刑法在犯罪构成认定方面亦坚持主客观相统一的认定标准,在犯罪主观方面强调认识因素与意志因素。认识因素是指行为人对自己行为及其结果的社会危害性的认识以及对犯罪的基本事实情况的认识。意识因素是指行为人根据对事物的认识,决定控制自己行为的心理因素。可以说,犯罪是犯罪人自由意志的体现,只有从犯罪人的自由意志中才能找到刑罚的正当根据。对于不具有认识因素的“无知”行为或是受到强制的“无选择”的非自愿行为不应当受到刑罚的谴责。[15]

因此,人工智能可否像法人一样作为又一新兴主体进入刑法视野成为被规制的对象,其核心在于分析客观上造成法益侵害结果的人工智能是否具备可追究刑事责任的主体意志自由。[16]

1.学界观点

人工智能在刑法领域引发的问题,引起了刑法学界对人工智能的刑事主体地位的一系列争论。目前,就人工智能能否成为刑事法律上的责任主体、能否对人工智能单独施加刑罚措施等问题有着不同的观点。

(1)肯定说

据报道,2017年10月25日一个名叫索菲亚(Sophia)的“女性”机器人被授予沙特阿拉伯国籍,该机器人成为史上首个被授予国籍的机器人。有观点认为,[17]沙特赋予机器人Sophia以国籍,很好地解决了人工智能刑事主体资格的问题,因为此时Sophia具有公民身份,无论是她对别人造成伤害还是别人对她造成伤害都需要依据刑法的规定进行处罚。人工智能的机器人不仅可以直接对他人人体造成侵害,而且在认识能力和意志能力方面,都可能接近甚至超越人类,因此完全有成为犯罪主体的余地。

对于此观点,本课题组并不认同。虽然Sophia被授予了国籍,但是在法律角度并不具有现实的可行性。因为就现在的人工智能技术发展看来,自然语言处理水平尚未发展至Sophia在电视节目中表现的程度。Sophia的言论可能全部都是由其背后的团队提前预设好的台词和剧本,根本不具有自由意志。也有学者曾对此进行过进一步的讨论,认为Sophia并无可能对其性自主意志进行实质判断,其也没有实际的感知力,如果男性自然人对其实施猥亵、强奸等行为,并无法进行相应罪名的认定。

另外,学界也有观点从另一角度肯定了人工智能的主体地位。[18]提出以智能机器人为代表的人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为,此时智能机器人已经具备刑法中犯罪主体的主要条件,确实需要承担相应的刑事责任。

该观点认为,首先,若智能机器人在设计和编制程序范围内实施行为时,不应承担刑事责任。从目前人工智能发展水平来看,智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,且完全符合人类设计和编制程序的目的。就此而言,人类是智能机器人的创造者,完全可以在智能机器人产生自主的意识和意志之前通过程序给智能机器人设定行为目的和行为边界。此时,人工智能只是不法分子实施非法目的的“工具”,而不应当对其实施的行为承担刑事责任。

但该观点同时提出,随着时代的发展,人类不应忽略这种已经可能产生和人类一样甚至超过人类智商的新事物的存在。若人工智能真的开始具有独立的辨认能力与控制能力,那么就应当认为人工智能可以成为刑事责任主体并需要承担刑事责任。认为智能机器人完全可以通过不断学习规则建立“自省”与“道德感”,这已经远远超出了自然行为论、因果行为论、目的行为论、社会行为论、人格行为论所能预见并认识的范围。

(2)否定说

目前也有观点直接否认了人工智能的刑事主体地位。认为人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,也就不具有人的目的理性所支配的可问责基础,欠缺作为刑事责任主体的本质要素。[19]

首先,人工智能对自身行为不具有认识能力。人工智能在预先设定的程序指令中运行,即使通过深度学习使程序摆脱了人类的控制并在客观上造成法益侵害结果,但人工智能本身缺乏对外在行为的真实理解,无法认知自身行为对客观世界产生的影响,因而无法认识自身行为的社会属性,也就不具有规范评价意义上的行为“目的性”与独立控制行为的意志自由可言。

其次,人工智能不具有理解并遵从法规范的能力。人工智能本身对刑法规范既没有理性的认识与遵从能力,也无法感知违反规范所造成社会否定性评价所带来的消极后果,其单纯依据程序设定实施的行为,或者因为出现故障导致人工智能未依据事先设定的程序运行,欠缺刑法所要求的对法规范遵从的意志自由。

再次,人工智能行为属性判断无客观标准。例如在当前人工智能应用最广泛的自动驾驶领域,自动驾驶系统只是一套机器系统,它们并不会作出真正的决策,它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而人类在驾驶时对于整套系统的感知和反馈模式拥有完全的控制权。不论自动驾驶汽车是符合人类预设的程序处于正常行驶状态还是造成了客观的事故损害,并无明确标准判断其是基于自主意志实施的行为还是基于人类本身的程序控制状况所出现的不同结果,唯一能作出的合理解释仍应回归于人类当前技术手段的缺陷使得作为辅助工具的人工智能出现目的偏差进而造成损害后果。   

2.课题组观点

综合上文中列举的不同的学术观点,本课题组支持人工智能刑事主体资格的否定说。

回归本部分前述首要观点,分析人工智能是否具有刑事法律主体地位的核心应在于分析人工智能是否具备可追究刑事责任的主体意志自由。目前人工智能的发展处于弱人工智能的初级阶段,尚不具备主体意志自由。智能机器人的行为还限制在人类设计和编制的程序范围内,智能机器人实现的是人的意志而非自主的意志,因而人工智能相关“刑事犯罪”最后的责任始终应由人来承担。具体而言,可以分为两种情况进行讨论:第一,若危害行为是人工智能完全在人类控制下实施的,此时人工智能的客观危害行为应归责于使用者本身。第二,如人工智能的行为超过了人预设的界限而造成危害行为,由于人工智能本身尚不具有意识性和目的性,该行为的性质类似于“微波炉爆炸”,可以适用产品责任解决,追究生产者等责任。例如,目前国外有关人工智能立法的草案对于特殊场景下机器人实施侵害行为规定了刑事责任,但利用机器人实施侵害行为的刑事责任承担者仍是机器人的设计者或制造者,机器作为实施犯罪的工具本身并不是犯罪主体。

进一步而言,假设人工智能相关产品具备行为辨认能力,最多是指通过算法和深度学习,具有对行为结果的计算和确定能力,在此方面人工智能体可能达到甚至超越人类的水平。然而,刑法上所说的行为辨认能力不仅是指对行为后果的把握,更是指对行为意义的认知。正如一个精神病人杀死一个人的时候,即使他知道要用枪杀死这个人,甚至也知道他枪杀一个人的后果,但是他却不能像正常人一样认知杀死这个人的真正意义。正因为此,刑法上认为这样的人不具有辨认自己行为的能力,因而不能承担刑事责任,即在刑法上不具有可罚性。所以,将对行为结果的辨认能力视为对行为的辨认能力实际上是限缩了行为辨认能力的外延,是不恰当的。

正如肯定说中有学者所提出的,若时代真的发展进入了强人工智能时代,人工智能开始产生了自主的意识和意志,又该如何抉择?本课题组观点是,人工智能如果真的产生了意识,给人类带来的将是诸多无法预测的场景。从目前人类社会来看,作为“工具”的弱人工智能已经完全够用了,强人工智能时代的到来总体而言是弊大于利,应该禁止强人工智能相关技术和产品的研发应用,从源头上将它放入“潘多拉魔盒”,那么也就不存在主体的认定问题了。

同时,根据民事责任、行政处罚以及刑罚的惩治严厉程度来看,在当前人工智能机器人无法通过民事、行政手段予以追责处罚的情况下,刑法的社会防卫功能不应过于积极主动,当人工智能致使公私财产损失或者致他人人身侵权损害后果时,刑法不应越过前置性规制法律直接规定相应刑事责任,否则违背了刑法二次保障法的地位,也有违刑法的谦抑性品格。综上所述,课题组认为就目前现状看来,不应给予人工智能刑事主体资格的认定。

三、人工智能著作权问题研究

人工智能在新闻和视觉艺术领域参与创作活动的现象虽然在如今已成常态,但如何认定由此生成内容的可版权性及其权利归属,在法律上却并未形成统一意见。因此围绕人工智能生成内容的可版权性和版权归属问题成为近些年来学界讨论最多的问题之一。

当前国内研究人工智能创作物保护的主要争议有二:一是人工智能创作物能否成为作品,二是人工智能能否成为作者或者著作权主体。二者都关系到人工智能创作物能否获得著作权法保护。[20]之所以存在上述争议,原因在于人工智能创作颠覆了著作权视野中关于作者的基本理解,也颠覆了法律关于主客体不能互换的基本原理。在此本课题组将从人工智能生成内容可版权性和市场自由两个角度对人工智能生成内容的可版权性做出探讨。

(一)学界关于人工智能生成内容可版权性的主要观点

我国目前关于人工智能生成内容的可版权性问题主要存在两种观点,一种观点认为人工智能创作物不能成为作品而排除著作权保护,而另一种观点则认为人工智能创作物著作权保护具有可行性,而在主张可版权性的一方中,又衍生出例如邻接权保护、法人作品保护等不同的保护模式。

世界各国著作权法多以独创性作为作品的核心要素,只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护。[21]除独创性外,可复制性也是各国著作权法给予作品保护的基本条件。[22]从独创性的视角出发,学界对人工智能创作物是否具有独创性形成了各种不同的认识,并基于各自不同的认识对人工智能创作物的保护路径提出了不同的看法,归纳起来主要包括以下几种:

1.不具独创性说及其保护路径主张

人工智能因具备深度学习能力而被应用到创作领域。有学者将其生成内容的过程表述成一个不断迭代、不断抽象的计算过程,以便确定最优算法。[23]尽管人工智能创作软件基于各种深度学习技术已经具备一定“创作力”,但这种“创作力”实际为计算。[24]计算是利用算法和规则的过程,其结果可以重现。而创作是个性化的表达,需要一定灵感。因此,人工智能生成内容的过程是计算而非创作,利用相同的算法采用相同操作可以重复内容。另外,整个计算过程是自主运行的,使用人无法在创作物生成过程中添加自己的个性表达。[25]这种计算从根本上抹杀了人类使用过程的创作空间,排除了处理结果具有个性化特征的可能性。但否定人工智能创作物独创性,并非同时否定人工智能创作物的利用价值。因此,也有学者主张,著作权法保护的是人类的表达,对于机器的表达可以由不正当竞争法来保护。[26]也有学者提出,对于人工智能创作物可以选择单独立法进行特殊保护。[27]

2.具有独创性说及其保护路径主张

以深度学习为代表的新一代智能学习算法技术的运用,[28]使得人工智能创作物不仅是基于既定算法、程序作出的指令性输出,且能够在没有预先算法或者规则的设定下,通过主动学习来进行创作。[29]基于此,有人认为,人工智能程序可以利用随机数生成器,使不同次运行的创作物各具个性。[30]人工智能创作物的创作过程能够满足独立创作和独具特色的要求。在对人工智能创作物的保护路径问题上,由于区分人工智能创作物与人类作品的成本较高,通常需要完备的登记制度和监管机制,[31]因此,在不区分来源的情况下,基于创作物表现形式和其独立创作过程,人工智能创作物可以成为著作权客体而受到法律保护。[32]可将人工智能生成内容视为人工智能程序的编程者的人类创作,[33]该创作物是否构成作品可以适用与人类作品一样的独创性标准进行判断,权利归属也可以适用著作权法中的法人作品制度。[34]

3.独创性不足说及其保护路径主张

该观点认为,人工智能利用公共领域作品以及不构成作品的素材,学习先有作品的风格进行创作,创作物与在先作品不构成实质性相似,其在作品类型中最为接近于演绎作品。基于著作权法不保护思想,而在先作品风格属于思想的范畴,因此人工智能创作物并非对在先作品的演绎。[35]考虑到人工智能创作软件对创作物不可替代的作用,可以尝试比照“剧本”作品进行分析。具体而言,可把人工智能创作软件当作“剧本”,把使用人视为“表演者”,人工智能创作物系使用人对“剧本”进行“表演”后的作品。基于此,人工智能创作物应为演绎作品,权利归属可以参照现行著作权法中的演绎作品制度处理。另亦有主张独创性不足的学者认为尽管人工智能创作物与人类作品形式上相似,但其本质上属于信息产品,其法律属性不同于民事法律关系的传统客体,既不是典型的物或行为,也非人类的智力成果或人身利益,该种独创性不足的生成内容(人类在其中起到的作用有限)可以通过邻接权进行保护。[36]

4.课题组观点

课题组在总结学者关于人工智能生成内容的可版权问题中发现,人工智能创作软件是生成创作物的根本,对于具有“创作力”的人工智能本身,能否作为创作物的作者或者权利主体问题,即使是认为人工智能生成内容可受版权保护的大部分学者的答案也是否定的。

立法应当未雨绸缪,同时也要注意前瞻性的限度,不能针对过于遥远的未来作远景规划。固然,民事主体经历了从“人可非人”到“非人可人”的历史变迁,[37]但这种历史变迁的背后,是经济交往的需要,而非泛滥的博爱情感。通过著作权法保护人工智能生成内容,不能与赋权给人工智能划等号。实际上,从科学技术层面来看,目前的人工智能尚不具备产生独立意志的可能性,功能与能耗的限制消解了人工智能之主体地位的现实基础。库兹韦尔笔下的人工智能发展的“奇点”是否真的存在及何时到来,没有人能给出确切、可靠的答案。[38]人工智能不具有独立意志,不能真正认识到自己行为的法律后果,不具备承担责任的可能性和必要性,主体身份无从获得。相比之下,法人或者其他组织之所以能被视为作者,法人作品之所以能受到著作权法保护,就在于法人作品是代表法人或者其他组织意志创作,并由法人或者其他组织承担责任。[39]承认人工智能的主体地位,步子迈得过于大,远离法理、逻辑和常识。从立法的实效来看,赋权给人工智能达不到预期的激励创作的立法目的。人工智能本身没有利益需求,不存在物质方面的刺激和精神方面的满足,赋权给人工智能不会对内容生成产生任何影响。著作权制度不能对人工智能本身提供任何激励,在赋权给人工智能的模式中,人工智能都只扮演招牌幌子和敲门砖的角色。

(二)市场自由视角下人工智能生成物保护

虽然学界对于人工智能生成内容的可版权性做出了初步的探讨,但是各派观点也在不同程度上存在着完善空间。

1.现有理论的反思

站在人工智能生成内容需要保护的立场下,不具有独创性说中,对人工智能创作物进行单行立法保护,似乎是一种更为可取的保护路径。但是,一方面,人工智能创作物仅仅是人工智能应用产出的一种,由于当前商业模式创新有限,对人工智能创作物采用单行立法保护,似乎时机还不够成熟。只有当人工智能技术发展到一定的程度,对包括人工智能创作物在内的应用产出有充分的了解和认识后,专门的立法似乎才会有必要和可能。此外,即便是专门立法,以何种方式对人工智能创作物进行保护,也是必须回答的问题。

在此前提下,反不正当竞争法的保护路径似乎回避了对人工智能创作物定性、归属等基本法律问题。诚然,反不正当竞争法对著作权及其客体商业运用过程中权利人的利益保护具有不可替代的作用。但是如果对人工智能创作物的法律属性等基本问题缺乏明确的认识,一方面,对人工智能创作物的法律保护难免会失之周全,另一方面,在人工智能创作物法律属性不明确的前提下,通过反不正当竞争法对其进行保护也无法正常实现。即便是在市场运行领域,要适度保护人工智能创作物,也必须以明确谁对其享有权利,享有什么权利,该权利与其他相关权利的界限在哪。

此外,演绎作品的保护路径具有一定的合理性,但人工智能创作物与演绎作品具有明显的区别,将其作为演绎作品而给予保护,似乎在制度安排上也很难与法律对其他演绎作品的保护相协调。再次,著作权法中的演绎作品同样是人类的作品,而非机器的作品,将人工智能创作物作为演绎作品进行保护同样绕不开保护对象性质差异性这个基本的问题。

2.跳出作品观看人工智能生成内容的保护

围绕人工智能的生成内容是否构成作品的核心无疑是对于独创性的判断,即人工智能的生成内容是否体现了最低限度的智力创作。该种判断事实上所要确认的是人工智能能否获得和作品相同的或者类似的保护。在回应人工智能生成内容是否具有独创性上,一种观点认为,从目前有关人工智能的各种报道和描述来看,至少在现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果,与为形成作品所需的智力创作相去甚远。[40]另一种观点认为,独创性的判断对象是已经形成的表达本身,判断时只需要对表达作形式上的审查,独创性的判断是一个纯客观的过程,是表达形成后的事后判断。[41]当我们已无法区分所欣赏的作品为人类创作还是机器生成时,就意味着该内容应被认定为作品,所以人工智能生成内容客观上应视为满足独创性要件中对最低创造性的要求。[42]

本课题组认为在回应人工智能生成内容的保护方面,并非只有将其生成内容认定为作品这一条途径。强行突破著作权法以人为核心的保护,抑或一方面承认人工智能生成物具有独创性,而又不将该种独创性归因于生成内容的过程,强调人在创作中的作用都是不合逻辑的。独创性或者说作品应该体现某种选择,这是人之为人,人之创作的作品之所以为作品的缘由,如果某位艺术家在自己家门无意打翻一桶颜料,而颜料正好在地上绘制出了一个精美的形状,第二天邻居看到以为是艺术家的新作,于是纷纷前来拍照,参观,这时在地上由于偶然产生的精美图像,在现在著作权的基本理论下很难认定为作品。同理,人类在无意识选择下生成的内容都尚不能构成著作权法下所保护的作品,弱人工智能根据算法、模板和程序生成的内容,完全没有任何的意志表达,又何能称之为作品呢?

因而对于人工智能生成内容的保护,应该回归到保护之目的说,并设计出一套合理的保护方案,方为正途。目前,各国建立的以人为中心的著作权制度,均未将机器的表达纳入其中。各国司法实践建立起的独创性标准虽有不同,但都是建立在对人的智力成果的评价基础之上的。人工智能创作物并非人的创作,既不能称其为编程者的智力成果,也不能将其作为使用人的智力成果。[43]将人工之智能的创作物定性为作品,又将其权利划归为相应个人、法人或非法人组织是不合逻辑的。

3.人工智能保护的必要性分析

对于人工智能生成内容的保护,需要回归到保护的必要性中。课题组对于相关学者的观点进行总结,发现对于人工智能生成内容保护的必要性其实主要集中在两个方面,其一是,对于人工智能生产内容的保护有益于人工智能产业的发展,其二,若不保护,大量的流入公众领域的人工智能生成内容将导致整个版权产业的巨大不稳定。

针对以上理由,本课题组认为,首先,国家对于人工智能产业的支持和鼓励不是为人工智能生成内容提供版权保护的必然事由。对于人工智能产业的扶持和保护事实上可以通过政府和市场之关系进行调节,对于人工智能生成内容的立法保护则更需要进行严格的论证。正如习近平在《习近平谈治国理政》一书中所言,“市场决定资源配置是市场经济的一般规律,市场经济本质上就是市场决定资源配置的经济。”[44]而实际上,将人工智能产业交由市场本身进行资源的配置,发挥政府在市场经济中的调节作用,本身就是产业发展的基本路径和模式。。

其次,对于人工智能生成内容的著作权法保护并不能回应著作权法保护人的创作活动和推动文化传播的立法本意。人工智能软件的开发确实投入了一定的成本,如果软件开发者或者使用者对于人工智能生成的内容无法享有某一程度上的权利保护,会对开发者或者使用者的利益造成某程度上的损害,但是据此而赋予人工智能生成内容类似录音录像制品一样的邻接权,事实上和著作权法的保护本意是不相融洽的。以录音录像制品为例,录音录像制品的保护事实上存在这样的逻辑脉络,即若不赋予录音录像制作者相应的权利,将会导致大量盗版的录音录像制品存在,[45]如此一来便不会有人从事付出大量劳动和投资的录制工作,最后导致的后果将是作品的传播受到了极大的影响。一方面,邻接权是对于录音录像行业的保护,而更深层面上是对于著作权法立法本意的回归,即促进文化的传播[46]和对投入精神创作的作者的保护。而反观人工智能生成内容的保护,则无法回应立法保护的本意。人工智能生成内容的著作权或邻接权保护,虽然起到了对于人工智能开发者的保护,但是人工智能开发者背后并无投入精神创造的人类,或者说其背后的“投入精神创作”的主体和人工智能开发者相同。

再次,对于人工智能生成内容的著作权或邻接权保护,是否有利于文化传播是存在重大疑问的。目前人工智能生成的内容和人类创造的作品还存在一定质量上的差距,即便给予该种内容亦版权法上的保护,也并不利于优质文化的传播。而当人工智能可以生成和人类作品并无太大差别或者难以区别的内容时,我们面临的挑战不再是不保护人工智能作品将会造成版权秩序混乱、版权纠纷增加之风险[47]抑或劣币逐良币的效应将导致文艺市场失去高贵、深刻并让人感同身受的作品,[48]而是整个人类创作领域的重大变革。人工智能本身可以量产,这就意味着将会有源源不断的“作品”产生,人类的作品将不再有竞争力可言。从长远看,著作权法并没有必要对于这种未来会对人类创造本身造成巨大灾难和威胁的人工智能提供保护。

4.现状分析和应对之策

制度设计应该具有一定的前瞻性,无论是人工智能生成内容的过去和未来都不应该是著作权法保护的对象,我们亦不能因对人工智能创作的“非创作性投入”进行专用权保护可促进人工智能创作软件的的开发应用,推动相关产业链的形成[49]为由,而要求对于人工智能生成内容进行著作权法上的保护。事实上许可人工智能生成内容进入公有领域,并不会对于人工智能产业造成破坏性的打击,亦不会阻碍智能创作产业的发展。

首先,人工智能产业并不仅涉及人工智能的创作领域,人工智能在金融、公共安全、教育、手机、交通、医疗、零售、工业、智能软件等领域都发挥着越来越大的作用,将人类从繁琐的劳动中解放出来。[50]许可人工智能生成内容进入公共领域并不会对于人工智能产业本身造成太大的影响。

其次,人工智能的创造并不会因为智能生成内容被许可进入公有领域而止步不前,人工智能创作软件的开发成本完全可以在商品销售领域获得弥补。例如,美联社于2014年7月开始使用的人工智能软件Wordsmith,其由美国北卡罗来纳州的自动化洞察力公司(AutomatedInsights)开发,[51]开发者通过软件的销售完全可以实现公司盈利的目的。

最后,人工智能开发者仍然可以通过合同安排,在私有领域对于人工智能的生成内容进行专有权利的安排,进而推动人工智能企业开发面向个体的具有个性的人工智能生成内容,此亦无损人工智能开发者之利益。例如,“Jukedeck”是英国的一家人工智能音乐创作平台,该平台为用户设置了类型化创作通道,并通过服务合同的方式许可用户免费使用其人工智能创作软件进行创作,音乐版权归平台所有,用户若要下载使用该音乐,应支付相应费用。开发者可以通过和使用者的约定,明晰人工智能生成内容的归属和使用方式,而开发者并不当然享有生成内容的专有权利。

课题组认为,具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。

四、人工智能市场准入和市场规制的法律问题

人工智能极大地便利和丰富了人们的日常生活,但人工智能带来的风险也不可小觑,如国家安全风险、个人隐私风险、伦理风险等等,[52]事实上,从人工智能进入市场的开端,到人工智能在市场中实际的商业运作,都少不了法律的规制。课题组将主要从三个方面展开,一是人工智能的市场准入,二是准入后人工智能的市场规制,三是国家在进行立法规制时应有的配套激励措施。

(一)人工智能市场准入原则

市场准入原则是贯穿于人工智能市场相关立法的整体思想准则,是对人工智能进行法律规制的宏观思路把握。在市场准入原则的把握上,我们应该对人工智能市场的一般和特殊、研发和应用,以及强弱人工智能进行区分。

1.对一般市场与特殊市场进行区别

目前,人工智能在诸如信息、金融、医疗、法律、电商等多个市场领域均有渗入与发展,而这些市场由于其行业特性,在发展人工智能时所面临的问题与风险不尽相同,因此针对人工智能的一般市场和特殊市场的准入原则也应有所不同。人工智能一般市场可以理解为人工智能的技术应用已经比较成熟或者不会涉及国家、社会或个人重大利益的市场,比如说日常的电子商务市场、教育市场或者一般家用的小型机器人市场、智能家居市场等。一般市场中人工智能的风险是较为可控的,因此为了鼓励中、小规模的主体进入市场,准入的门槛应该降低。

而对于特殊市场的准入原则则要基于市场的特殊性,对欲进入市场的主体提出特殊的条件,甚至严格制约人工智能的市场准入。第一,涉及国家安全或重大利益的特殊市场主要指有关军事、国防、国家重大经济安全等,在对国家安全造成重大威胁时甚至应该禁止人工智能的市场准入。第二,涉及社会重大公共利益的特殊市场包括无人驾驶系统和日后可能出现的医疗手术机器人等,在此类的市场领域中,如果没有比较明确的资质要求,则会使重大安全事故发生率成指数型上升,社会公众利益得不到保障。第三,涉及个人重大利益的特殊市场目前主要指与个人信息与隐私安全密切相关的市场。为了避免个人信息与隐私泄露给本人带来的潜在风险,针对某些靠收集整理个人信息数据为主要商业经济来源的市场领域来说,应该设定相应的准入要求。

2.对技术研发和市场应用进行区别

研究人员曾对人工智能的层次作出划分,将人工智能从下往上划分为基础设施层、算法层、技术层、应用层。基础设施、算法、技术方向以及具体技术都是属于技术的研发阶段,而被划分到应用层的行业解决方案则属于最终的市场应用阶段。[53]

不难理解,人工智能技术的研发不仅是应用的前一阶段,也是应用的根基。课题组认为,应给予人工智能基础层技术研发宽松的环境,原因有三:第一,从人工智能所依赖的底层算法看起,此阶段的研发还未分离出上层的不同领域,某些算法更是被大多数不同市场领域的人工智能引以为共同的本源,宽松的准入环境有利于促进技术更多方面的发展。第二,我国目前还处于人工智能技术的研发初期,部分关键的算法以及芯片技术还依赖于国外的进口,这可能会影响到我国“2025计划”的顺利实现。因此,从技术研发层面应鼓励不断创新与进化。[54]第三,由于只是技术的研发,其具有基层普遍性,但却暂未牵涉到上层应用层面的社会实际推广,因此可以采取较为宽松的准入原则。

在市场应用阶段上,课题组认为应该结合该行业的具体特性,为人工智能设置一定的准入要求,其原因依然有三:第一,相较于技术研发,应用阶段具有了更多的市场运营属性,将一项技术正式投入到具体应用中,显然对社会的影响也更大。第二,对于人工智能的市场应用层面来说,有可能面临着诸如社会伦理等更为深层次的忧虑,不排除某些人工智能会因为对社会伦理的冲击而被禁止进入市场。第三,应用也比技术研发有着更强的商业利益追求,比如可能某项技术还没有尽善尽美,但是经营者为了营利则希望尽早投入市场生产经营,这背后的道德风险不可小觑。综上所述,对于特定的技术应该设置特定的标准,除非达到了该标准,否则不能轻易投入市场使用。

3.对强弱人工智能等级进行区别

人工智能也有了“强”和“弱”的等级区分。谈到市场准入的监管原则,还必须在厘清本报告第一部分对于“强弱”人工智能的介绍,对二者进行区别。

课题组认为,强人工智能和弱人工智能最本质的区别在于创造力,在于其处理逻辑的形成,通俗来说,弱人工智能并不具有自主的创造力,其本质上还是供人们使用的一种工具,只不过由于一些特殊的编程或芯片技术而拥有了一些类人类的能力。事实上,我们目前所发展出的人工智能,都是属于弱人工智能的领域,监管也是谈论对弱人工智能的监管,因此将准入原则划定在弱人工智能领域范围内较有现实意义。但是在弱人工智能领域,也有较强和较弱的弱人工智能之分。那么显然对于更易于被普通人所使用操作的纯粹工具性质的较弱的弱人工智能的市场准入标准要偏低一些;而对于较强的弱人工智能,由于其相较难以控制或者背后暗含的伦理等问题,在设置准入标准时应该从严。

事实上,受目前科学技术水平的制约,人类还并没有真正发明出不受人类控制的强人工智能,但是可以预见,如果有一天强人工智能问世,那么将会给人类社会带来巨大的冲击。这种冲击不仅包括伦理道德、市场安全方面,更包括规则制定乃至整个社会秩序方面。因此,课题组认为强人工智能是弊大于利的,应该从立法上禁止强人工智能相关技术和产品的研发应用,禁止强人工智能的市场准入,从源头上将其放入潘多拉魔盒,在本部分中提及的对人工智能的规制也均指弱人工智能。

(二)人工智能市场规制

由于市场主体所惯有的逐利性,对于市场主体的规制显得十分重要,人工智能领域也不例外。本部分将主要从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能产业发展寻求一个健康的市场环境。

1.人工智能反不正当竞争市场法律规制

不正当竞争虽然从市场主体的行为表现形式上来看与市场侵权行为十分类似,但是它并不等同于市场侵权行为,它们的规制对象有很大区别。德国曾将反不正当竞争纳入侵权法中,后来通过不断的案例分析与发展,逐渐明确了反不正当竞争法的特性,而将其独立立法并归入经济法范畴。人工智能的出现给我国《反不正当竞争法》带来了三个方面的挑战,其加剧了反不正当竞争法一般性条款的泛化运用,突显了以反不正当竞争法来保护人工智能相关的商业秘密的不足,更是在数据保护方面对反不正当竞争法提出了新的要求。

(1)反法一般性条款的泛化运用

我国《反不正当竞争法》第二章规定了包括混淆行为、虚假宣传、商业秘密等在内的七种类型化不正当竞争行为,却难以囊括新兴技术发展背景下频繁出现的各种不正当竞争行为。为了弥补列举式立法的缺陷,《反不正当竞争法》第2条规定:“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德。”该条款属于反不正当竞争法的一般性条款,也是兜底性条款,赋予了法官较大的自由裁量权。这种兜底性条款体现了较强的立法技术,能够在新的技术环境背景下处理瞬息万变的各种不正当竞争行为。但正因如此,法院在处理非类型化的不正当竞争行为时,侧重于依据该一般性条款,造成了一般性条款的泛化运用。[55]最新修改的《反不正当竞争法》为了应对互联网背景下一般性条款的泛化,增加了第12条有关互联网不正当竞争的条款,俗称“互联网专条”,以期缓解这种现状。例如在360诉搜狗恶意插入链接,强制进行目标跳转一案中,原本以“违反诚信原则和商业道德”这个一般性条款为判决依据的行为,就可以在新法实施后纳入互联网专条的管辖范围。

然而随着人工智能时代以不断创新的科技进步冲击着法律的稳定性,为了更好地规制不正当竞争行为,一般性条款的泛化运用必将加剧。以我国发生的首例大数据产品不正当竞争纠纷案为例,在该案中,原告淘宝公司开发并投入运营了一种为淘宝、天猫店铺商家提供大数据分析参考,帮助商家实时掌握相关类目商品的市场行情变化,改善经营水平的数据产品。原告诉称,被告美景公司组织、帮助他人低价获取淘宝公司涉案数据产品中的数据内容,从中牟利,构成了不正当竞争行为。本案中涉及的争议对象大数据正是人工智能的底层技术设计,但是由于缺乏相应的“人工智能专条”,法院在裁判时依然以被告“明显有悖公认的商业道德”为依据认定被告存在不正当竞争行为。一般性条款的泛化不仅不利于保障市场经营主体的合法权益,同时由于赋予法官的自由裁量权过大,行为主体的可预期性下降,也不利于健康良好的市场秩序。在人工智能时代,我们呼吁“人工智能专条”的出现。

(2)商业秘密的反不正当竞争保护

在人工智能时代,会产生海量的数据资源,这种数据资源如果被经营者收集、整理、分析而具有了一定的经济价值,并被经营者采取相应的保密措施,就会形成商业秘密。我国《反不正当竞争法》第十条规定了不得侵犯他人的商业秘密,可见如果数据经过处理并满足商业秘密的构成要件的话,可以通过商业秘密路径得到保护。但是不得不指出的是,通过《反不正当竞争法》对商业秘密形成的是一种“弱保护”,保护的是经营者的利益,而不是权利。即经营者对商业秘密的享有不是绝对排他性的权利,而仅是在受到他人侵犯时才能通过诉诸不正当竞争来间接保护。我们认为,人工智能时代仅靠反不正当竞争法对商业秘密进行保护已经远远不足了。

由于人工智能目前还处于发展初期,商业秘密给一个企业带来的市场竞争价值难以估量,这也是我们建议重视对商业秘密保护的原因之一。虽然我国《民法总则》已经将商业秘密纳入知识产权保护客体,但是在实践中缺乏配套的细则规定,目前仍主要靠反不正当竞争来保护经营者的商业秘密,这种保护实难称之为完善,与人工智能时代由数据形成的商业秘密的重要性与众多性难以匹配。因此除了《反不正当竞争法》对商业秘密的保护,可以将商业秘密作为经营者享有的绝对性权利,类比专利权、著作权等知识产权保护客体,单独进行立法保护。

(3)数据的反不正当竞争保护

目前看来,数据是目前大多数人工智能行业的基础,人工智能给我国《反不正当竞争法》带来的挑战集中体现在对数据的保护上。有些数据可能经过市场经营主体的整合分析研发形成了商业秘密,但是有些数据可能只是经过简单的收集处理,难以论证其经济价值或没有被采取保密措施,此时就难以归入商业秘密范畴,从而丧失了通过《反不正当竞争法》进行保护的可能。但是,对那些虽然不符合商业秘密和作品保护条件,同时经营者也投入了大量资金与劳动形成的、能给经营者带来竞争优势的数据信息,若被不当“盗用”或“扒取”,也会给经营者及市场竞争带来不利损害。[56]如果放任这种情况的发生,势必会挫伤数据开发者的积极性,阻碍人工智能技术的革新。

遗憾的是,我国《反不正当竞争法》并没有将此类数据信息纳入保护范围,也就是说,在反不正当竞争法第二章规定的七种类型化行为里,并没有侵犯数据权益的情形,虽然有反不正当竞争法一般性条款的兜底,但是对一般性条款的滥用必会造成人工智能市场的不稳定性。2018年5月,日本修改了其《不正当竞争防止法》,在第二条关于“不正当行为”定义的例举中新设了非法获取、使用和提供受用户账户和密码等系统管理方式保护的、仅向特定使用者提供的数据之情形。人工智能领域的数据信息可能构不成传统意义上的商业秘密,但基于数据的重要性十分有保护的必要,并且由于某些数据信息的价值性没有那么突出,也不必将保护力度提升至类似于商业秘密权的强保护。因此课题组认为,借鉴国外的做法,类比侵犯商业秘密的规定,将侵犯数据信息纳入不正当竞争保护范围,具有合理性。

2.人工智能反垄断市场法律规制

人工智能时代的到来催生了新型的垄断行为,使市场垄断更为隐秘,难以被监管机关察觉,或者难以落入《反垄断法》的适用范围。这些行为包括通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为。

(1)通过算法共谋的垄断协议行为

传统的垄断协议行为一般都是明示的,即行为主体间故意通过书面形式或口头形式达成一致的意愿协议,以固定价格、排除竞争等。这种明示的共谋行为比较容易留下证据,也比较容易能被监管机关分辨出来。但是随着人工智能的出现,垄断协议行为渐渐开始向默示化发展,即表面看来是由于计算机和算法运行而导致的垄断行为,其实是算法背后经营者的刻意操纵。

早有学者指出,算法已经成为经营者共谋达成垄断协议的工具,例如在美国,数位当事人就被指控共谋使用特殊定价算法,在亚马逊平台上在线固定海报画的销售价格。[57]据称,合谋者为实施协议,对招贴画的销售采用了特别的价格算法,目的是协调各自的价格变动,并编写了服务于价格算法软件的计算机代码,以便设定与协议一致的价格。这种利用大数据整合算法,达成统一的市场定价,在国内外已经屡见不鲜。通过迅速处理竞争对手的市场信息和其客户的专有数据,计算机可能会更有效地监测竞争对手的价格或客户,这虽然增加了市场透明度,但也增加了发生协同行为的风险。[58]同时,这种默示化的垄断协议行为没有明显的物理痕迹,不易于被发现,增加了监管的困难。针对这一现状,我们认为在未来反垄断法的司法实践中,可能不得不将“垄断协议”做扩大化解释。

(2)通过数据垄断滥用市场支配地位行为

企业拥有市场支配地位本身不会构成反垄断法的规制对象,关键点在于企业是否滥用了其市场支配地位,阻碍了其他经营者进入市场。在人工智能时代,具有行业优势性的企业对于数据的垄断已经是不争的事实。例如大型的搜索引擎企业或者网络购物平台,这些平台由于所经营的业务,对用户数据的抓取具有先天性的优势。对于控制大量数据的企业来说,具有市场支配地位不会构成垄断,但如果其利用收集到的大量市场数据,排除了下游经营者的市场进入,阻碍了其他经营者的市场竞争,就触及了垄断行为。利用数据进行垄断是人工智能时代比较显著的特征。

我国《反垄断法》第17条规定的滥用市场支配地位中并未涉及数据垄断行为,如果企业通过其市场支配地位收集到数据,但是并不向第三方开放,从而阻止了其他经营者进入市场,这是否会造成垄断行为值得思考,毕竟企业费力抓取来的数据信息在某些情况下也属于需要被保护的合法权益。欧洲法院(ECJ)曾在相关案例中针对该问题提出了“必需设施”理论,即如果市场经营主体垄断的数据属于市场的“必需设施”,则认为其构成垄断行为,反则反之。[59]我们认为当特定数据构成“必需设施”时,应该认为经营者通过数据垄断滥用了市场支配地位。

(3)未达到申报标准的经营者集中行为

经营者集中也是反垄断法加以规制的一种行为,它是指两个或者两个以上的企业相互合并,或者一个或多个个人或企业对其他企业全部或部分获得控制,经营者集中可能会造成经济力量过度集中,进而限制竞争。我国并未禁止经营者进行集中,而是采取了事前的强制申报制度。根据国务院颁布的《关于经营者集中申报标准的规定》,对于营业额达到一定标准的企业如果想进行集中就必须申报,即以营业额为申报标准。但是这一标准却在人工智能时代面临着风险,我国的人工智能企业刚刚处于起步阶段,许多企业的营业额并不高,市场价值难以在目前真实显现,如果此时拥有人工智能产业的企业进行集中,可能难以达到申报标准从而逃脱监管,但是这并不意味着未来这些企业的集中不会给竞争秩序造成损害。

这一问题也普遍存在于全球各个国家,德国等国家已经意识到这一问题,德国《反对限制竞争法》就引入了一项新的考虑交易价值的合并控制标准,即以交易额门槛补充基于营业额的法定事先申报门槛。[60]我国的申报标准也主要以营业额为依据,这可能会导致营业额较低但是未来价值较高的人工智能企业逃脱申报,因此在认定申报标准时是否可以参照合并时的交易额高低,而不是企业本身营业额的高低是值得思考的问题。

(三)人工智能市场激励政策

市场准入和市场规制本身就具有某种意义上的双向含义,既是通过限制某些人工智能的市场准入和市场竞争行为加强对人工智能风险的防范,也是对某些人工智能放宽准入标准以及维护市场良好竞争秩序以达到对于人工智能的激励效果。我国目前已经对人工智能的激励有了宏观的政策思路把握,但是通过上述对于市场准入和市场规制的分析,课题组拟再从细节方面提出以下三个方向性建议,包括促进技术研发的成果共享、完善对于商业秘密和数据的保护以及加强反垄断的执法力度。

1.技术研发的成果共享

从人工智能的结构层次来看,层级越高人工智能的领域技术分化就越明晰,而针对处于底层的算法设计和技术方向,则应该建立技术共享平台,促进技术研发的成果共享。对技术研发阶段的共享激励存在三个方面的现实意义。其一,就我国人工智能行业市场来看,企业比较倾向于从应用层入手直接进行市场运作,而对于比较核心的算法设计与芯片技术还过多地依赖着外国进口,促进技术研发成果的共享能够整体提升我国技术研发水平。其二,技术研发作为比较基础的人工智能,还没有具体地向某个行业进行分化,没有具体地被应用到行业解决方案上。不排除此阶段的人工智能被应用于各个领域的可能性,它具有更多的公益性而不是商业逐利性,促进共享比较合适。其三,核心技术研发属于创新的一部分,但创新则需要较大的成本,对于比较基础性的人工智能技术,只有建立技术共享平台,鼓励技术共享,才能提升创新发展的效率。

2.完善对商业秘密和数据的保护

如上文中市场规制部分所论述的,商业秘密和数据信息是人工智能时代需要重点关注的对象。正因为人工智能还属于发展初期,市场竞争还存在太多的不确定性,与人工智能相关的商业秘密往往倾注了市场经营主体较多的心血,甚至是一个企业的核心竞争力,商业秘密的意义被大大提升了。对于商业秘密,仅靠反不正当竞争法的保护已经不够了,而应该趁着在《民法总则》里商业秘密被纳入知识产权保护客体的契机,承认经营者对商业秘密享有的所有权,着重于从知识产权方面进行类似于著作权、专利权的保护。而数据信息是人工智能时代被赋予市场经济价值和市场竞争筹码的另一客体。有些数据信息可能因为经营者的整合研发和采取的保密措施而被纳入商业秘密保护范畴,但是对于其他的数据信息并不是没有保护的必要。目前数据的所有权问题尚且有较大争议,我们不便于直接确定数据信息的所有权问题,但是对于某些企业不正当地窃取他人数据的行为,可以很好地用《反不正当竞争法》进行规制。同时为了避免反法一般性条款泛用的加剧,我国可以在《反不正当竞争法》里增加与数据相关的类型化不正当竞争行为。

3.加强反垄断的执法力度

对于人工智能给反垄断带来的诸多挑战,我们可以通过行为类型化的分析一一解决。在市场经营主体利用默示化的算法进行垄断协议的行为上,我们可以拓宽“垄断协议”的内涵理解,例如如果某些算法可能会导致快速的反复的价格变动,最终会促成统一的价格,这就可以相当于商人之间的实际谈判协商达成共谋协议。[61]同时,可以将行为主体间没有达成共谋协议的证明责任转移给各个涉嫌的经营者。在市场经营主体利用数据滥用市场支配地位的行为上,我们要看到对于数据保护的矛盾性,何种数据需要给予经营者垄断性的保护,禁止他人的不正当竞争行为,何种数据需要禁止经营者的垄断,需要有一个较为明确的标准。为了加强对人工智能行业经营者的集中监管,课题组建议将申报标准由营业额标准修改为交易额标准,同时在交易额的认定上要符合通常的市场经济规律,避免诸如一元的名义交易额或者过低的交易额的出现。

结 语

人工智能技术的飞速发展催生了无人驾驶汽车、智能医疗、智能创作软件等新兴产业,亦暴露出一系列值得探究与思考的法律问题。本课题对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制等问题进行了探析,充分认识到科学技术的新发展给法律滞后性带来的挑战。

首先,通过对人工智能的法律主体资格分析,课题组认为应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。课题组认为应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。其次,对于人工智能创作物能否受到知识产权保护问题,虽然传统知识产权制度以人类的创新成果为保护对象是人工智能创造物受知识产权保护面临的障碍,但是课题组论证了目前由人工智能生成的内容不适合获得版权保护,人工智能生成物应当作为公共产品进入市场流通。最后,人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能寻求一个健康的市场环境。

我国的人工智能研究已走在世界前列,但与这一新兴技术相应的法律规范及制度尚不健全,相关问题目前主要由伦理道德和社会舆论进行约束,而缺少相应的监督机制,也无权威机构进行规范。有鉴于此,应当及早建立对人工智能问题的法律认识,及时采取相应的行动,为人工智能产业营造良好的社会市场环境,以进一步促进人工智能技术的良性发展,顺利实现智能化社会的转型。同时,我们必须谨记无论未来人工智能发展至何种程度,也永远不能取代人类的智慧,科学工作者的辛勤劳动和努力创新才是人类进步的主要动力。我们要合理利用人工智能为我们带来的各种便利,但不能过度依赖人工智能,同时也要认真思考人类社会与人工智能之间的关系,从而决定未来的法律是否应当适应人工智能的发展而做出相应的调整变化,相信未来法律与人工智能之间的平衡会越来越完善。

编后语:人工智能是引领新一轮科技革命和产业变革的战略性技术,是我国产业转型升级的战略抓手。在推动人工智能健康发展的现实需要下,人工智能与各行业全方位深度融合,催生了数据驱动、人机协同、跨界融合、共创分享的智能经济形态。如何妥善应对人工智能带来的挑战,为产业健康发展营造良好环境,有必要在法律制度层面进行深入研究。本课题分析了人工智能对传统法治体系带来的冲击和挑战,并着重对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制三个问题进行了深入研究。课题成果具有现实针对性、观点具有一定参考价值,为促进人工智能发展的法律法规和政策体系建设提供了有益的指导。

 

课题组长简介:

童潇,男,华东政法大学互联网+法律大数据平台常务副主任,副教授。

(责任编辑:邓海娟   核稿:陈书笋)

[①]2018年上海市人民政府决策咨询研究政府法制专项课题。

[②](美)StuartJ.Russell,PeterNorvig著:《人工智能:一种现代的方法》(第3版),殷建平、祝恩、刘越等译,清华大学出版社2013年版,第3-5页。

[③]王家祺、王赛:《人工智能技术的发展趋势探讨》,《通讯世界》2017年第8期。

[④]钟义信:《人工智能:概念•方法•机遇》,《科学通报》2017年第22期。

[⑤]闫志明、唐夏夏:《教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析》,《远程教育杂志》,2017年第1期。

[⑥]蔡曙山、薛小迪:《人工智能与人类智能——从认知科学五个层级的理论看人机大战》,《北京大学学报(哲学社会科学版)》2016年第4期。

[⑦]【美】史蒂芬·卢奇、丹尼·科佩克著:《人工智能》(第二版),林赐译,人民邮电出版社2018年版,第11页。

[⑧]马修U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。

[⑨]季冬梅:《人工智能发明成果对专利制度的挑战—以遗传编程为例》,《知识产权》2017年第11期。

[⑩]雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报》2018年第2期。

[11]郑戈:《人工智能与法律的未来》,《时事观察》2017年第10期。

[12]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》2018年第6期。

[13]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

[14]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。

[15]邱兴隆:《刑罚的哲理与法理》,法律出版社2003年版。

[16]时方:《人工智能刑事主体地位之否定》”,《法律科学(西北政法大学学报)》2018年第6期。

[17]姚万勤:《人工智能影响现行法律制度前瞻》,《人民法院报》2017年10月25日。

[18]刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。

[19]时方:《人工智能刑事主体地位之否定》,《法律科学(西北政法大学学报)》2018年第6期。

[20]目前有关人工智能创作内容的术语有人工智能生成内容、人工智能作品、人工智能创作物、人工智能创作成果等不同的表达。

[21]美国《版权法》第102条,日本《著作权法》第2条,意大利《版权及邻接权保护法》第1条。

[22]《中华人民共和国著作权法实施条例》第2条。

[23]蔡自兴等:《人工智能及其应用》,清华大学出版社2016年版,第290-291页。

[24][加]SimonHaykin:《神经网络与机器学习》(原书第三版),申富饶等译,机械工业出版社2011年版,第398页。

[25]SeePhilipGalanter,ThoughtsonComputationalCreativity,DagstuhlResearchOnlinePublicationServer2,(July7,2009),http://drops.dagstuhl.de/opus/volltexte/2009/2193/,2018年7月5日最后访问。

[26]杨延超:《为人工智能筹划法律保护》,《经济参考报》2017年12月5日,第8版。

[27]SeeJaniMcCutcheon,CuringtheAuthorlessVoid:ProtectingComputer-GeneratedWorksFollowingIceTVandPhoneDirectories,37MelbourneUniversityLawReview46,78-79(2013).

[28]腾讯研究院、中国信通院互联网法律研究中心:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第49页。

[29]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。

[30]SeeJamesGrimmelmann,CopyrightforLiterateRobots,101(2)IowaLawReview657,659-660(2016).

[31]曹源:《人工智能创作物获得版权保护的合理性》,《科技与法律》2016年第3期。

[32]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

[33]SeeAnnemarieBridy,CodingCreativity:CopyrightandtheArtificiallyIntelligentAuthor,5StanfordTechnologyLawReview1,21(2012).

[34]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。

[35]陶乾:《论著作权法对人工智能生成成果的保护--作为邻接权的数据处理者权之证成》,《法学》2018年第4期。

[36]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。

[37]李拥军:《从‘人可非人’到‘非人可人’:民事主体制度与理念的历史变迁--对法律‘人’的一种解析》,《法制与社会发展》2005年第2期。

[38][英]玛格丽特·博登著:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017年版,第85页。

[39]《著作权法》第13条第3款。

[40]王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。

[41]孙山:《人工智能生成内容著作权法保护的困境与出路》,《知识产权》2018年第11期。

[42]熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。

[43]此处指的是第二类计算机生成内容和具有一定学习能力的可以脱离指令输入的人工智能生成内容。

[44]习近平:《习近平谈治国理政》,北京外文出版社2014年版。

[45]乔玉君:《论著作邻接权的法律保护》,《科技与法律》1997年第1期。

[46]关于邻接权的传播功能,亦有学者指出,“传播功能”是邻接权客体所具备的核心功能,也是邻接权客体正当性的最有力证明。王国柱:《邻接权客体判断标准论》,《法律科学(西北政法大学报)》,2018年第5期。

[47]李伟民:《人工智能智力成果在著作权法的正确定性--与王迁教授商榷》,《社会科学文摘》2018年第7期。

[48]易继明:《人工智能创作物是作品吗?》”,《法律科学》2017年第5期。

[49]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。

[50]《走向智能推荐:2018年中国人工智能行业研究报告》,http://baijiahao.baidu.com/s?id=1596679755391284602&wfr=spider&for=pc,最后访问日期2018年1月19日。

[51]徐曼:《国外机器人新闻写手的发展与思考》,《中国报业》2015年第23期。

[52]董妍:《人工智能的行政法规制》,《人民法治》2018年11期。在该文中作者总结了学者们所提到的人工智能的十大风险,包括意识形态和国家安全风险;军事风险;公共安全风险;社会不稳定风险;伦理风险;个人隐私风险;算法歧视和数据歧视;知识产权风险;信息安全风险;未成年人身心健康风险。

[53]腾讯研究院:《人工智能》,中国人民大学出版社2017年版,第24页。该书中指出,基础设施层包括硬件/计算机和大数据;算法层包括各类机器学习算法、深度学习算法等;技术层包括计算机视觉、语音处理等多个技术方向和图像识别、语音合成等多个具体技术;应用层是指行业解决方案,包括金融、安防、交通、医疗、游戏等。

[54]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年5期。

[55]田小军、朱萸:《新修订《反不正当竞争法》‘互联网专条’评述》,《电子知识产权》2018年第1期。

[56]管育鹰:《人工智能带来的知识产权法律新问题——国外发展动向与我国应对路径思考》,中国法学网。http://www.sohu.com/a/275639314_648952,最后访问日期:2018年12月29日。

[57]黄晋:《人工智能会不会促进垄断》,《经济参考报》2018年11月。

[58]韩伟:《数字市场竞争政策研究》,法律出版社2017年版。

[59]转引自韩伟:《数字市场竞争政策研究》,法律出版社2017年版。

[60]黄晋:《人工智能对反垄断法的挑战》,中国社会科学网:http://ex.cssn.cn/zx/bwyc/201810/t20181010_4666741.shtml,最后访问日期:2018年12月29日。

[61]李振利、李毅:《论算法共谋的反垄断规制路径》,《学术交流》2018年第7期。

人工智能何以促进未来教育发展

原标题:人工智能何以促进未来教育发展

自工业革命以来,人类社会的发展总是在技术与教育的角逐互动中前行。技术作为推动人类历史发展的核心推进力,与教育这一“人力资本发动机”竞相成为推动经济社会发展的主力。人工智能作为第四次工业革命的显著标签,其飞速发展正在逐步塑造社会、经济、生活等领域的业务新形态,也不断带来颠覆性、丰富性、创新性的新业态。面对人工智能技术对整个社会发展的刺激,教育如何发展,成为值得思考的重要问题。

人工智能凸显创新人才发展挑战

作为引发第四次科技革命的核心技术,人工智能促进社会经济和科技的指数级发展,对人力资本的质量与供给产生了新的需求,人工智能与人力资源之间的相互依存关系产生了前所未有的张力,教育的超前性更是受到前所未有的挑战。第一,知识增长的指数发展使得未来人才需要哪些方面的准备具有极大的不确定性。第二,智力劳动者比重增加,创新人才成为时代发展的刚需。人工智能技术与生产过程的深度融合,会极大压缩生产领域的从业者需求,特别是那些人工智能胜出的领域。第三,人工智能技术的兴起引发高技术产业、新兴产业、新型服务行业更广阔的发展空间,从而使得创新型人才、复合型人才、高技术人才等在劳动力结构中需求激增。人工智能技术无法取代的创造性、灵活性、人文性等能力将成为智能化时代人才竞争的关键。教育肩负培养创新人才、为未来人才提前布局的使命。回溯历史,我们可以得到的经验是,只有教育领先于技术的发展步伐,为技术推进的社会提前做好人力资源的布局,社会的发展才有后劲。因此,在人工智能推进社会更飞速发展的今天,必须回答好什么样的教育才能承载提前布局人力资源的使命,以应对未知社会的人才挑战这一问题。

人工智能催生新的知识生产方式

在人工智能的影响下,人类知识生产加剧变化,知识增量呈现指数级态势。教育的传承性发展将不再局限于知识的传授与继承,而强调知识创造与创新,人工智能的介入更是催生了新的知识生产方式。其一,人工智能强大的知识发现能力缩短了知识生产周期。随着深度学习、强化学习等新的机器学习算法的发展,人工智能除了可以加快知识的生产、访问和利用,还可以从数据中提取隐含的、未知的、潜在的、有用的信息(知识),从而扩展知识创造的能力。其二,人机协同的智能模式扩大了知识创造的机会与可能性。人工智能技术不仅促进人的群智协同创新,而且可以实现人类与人工智能代理协同,后者所具有的超强计算能力,可以极大加速知识生产,催生知识的众创,以及人机协同知识创新。人工智能催生的新的知识生产方式对教育的挑战是,教育不再局限于知识传承,而更是知识的创新。未来学校教育必须教会学生如何与人工智能技术协同合作,呵护学习者“能学”,以及高度重视学生辨析知识能力的培养,召唤学习者“会学”,促进学习者在人机交互中实现知识更新与创造。

人工智能变革学习方式带来创造力与活力释放可能

人工智能已经引发了诸多领域与行业的深刻变革,对教育的系统性变革更是呼之欲出,为学习方式的变革带来了可能。首先,人工智能技术带来规模化教育的个性化可能。人工智能构建的智慧学习环境不仅创造灵活的学习空间,还能感知学习情境、识别学生特征,为学生提供个性学习支持。其次,人工智能技术带来标准化教育下的适应性可能。人工智能通过动态学习诊断、反馈与资源推荐的自适应学习机制,可以适应学生动态变化的学习需求,从而打破标准化的教育限制,释放出学生的创造力与活力。最后,人工智能改善结构化的授导方式,释放教师的创造力与教学活力而专注于人性化的学习设计。教师烦琐重复性的工作能够被智能机器所替代,智能分析技术能为教师精准定位学生的学习问题与需求,教师的角色将转向更加优秀的学习设计师,专注于“如何让学生学好”,注重培养学生的能力和思维,将更多时间用于学习活动设计以及与学生的个性化互动交流,为学生提供个性化学习支持服务。人工智能的发展以及与教育教学的深度融合,给教育的改革创新带来了更多选择,教育需要发挥技术的赋能、增能、使能优势满足教育的功用性追求,也要坚守教育的育人初心和使命传递人文性价值,以学生的成长发展为前提探索可以实践的学习方式、学习设计,通过人工智能释放出教育的更大活力。

人工智能引发领域与行业变革催生教育生态升级

人工智能对其他领域与行业的变革影响也会延伸到教育领域,因为教育是关乎社会发展全局的事业。一方面,人工智能所发挥的增强、替代、改善、变革等作用,突出体现在对社会生产和生活各个领域所产生的行业重塑作用,以及对人力的释放。另一方面,这些重塑作用和人力的释放,引发了社会领域与行业的变革,促使了社会人才需求的转向;而教育是社会人才资源输出的重要领地,需要为此作出有力回应,从而催生教育生态升级。人工智能加速了教育深化改革的进程,推动了系统内部的更新再造。数字技术已经对教师学生、课程、教学方式、学习体验、评价、管理等教育要素产生了深刻影响,并通过逐步的再造教育流程,变革着教育生态。而人工智能则在进一步加速这一过程,以一种颠覆性创新的态势,拓展系统内各要素的内涵,改善和延展系统内部关系,重塑教育系统功能与形态。人工智能拓展了教育边界,助推未来学校建设。未来学校将借助技术的力量,把校外学习场所(如科技馆、博物馆)和线上学习场所都纳入“学校”的范畴,整合社会各领域的教育资源,形成一种全新的育人环境。同时,数字孪生等新技术促进现实空间与虚拟空间的交互融合,通过创建人、物、环境数字孪生体,实现物理空间与数字空间的双向映射、动态交互和实时连接。对教育系统内部的升级改造以及空间资源的拓展,能够使其更好地与社会领域衔接,更好地提供适应未来生活和工作的创新人才成长场所。

人工智能关乎强国战略目标实现

教育应服务于国家战略布局,为抢占人工智能发展先机,构筑先发优势;为国际竞争、社会发展输出创新人才,支持科学技术的自主研发。当前,世界各国纷纷把发展人工智能上升到国家战略的高度,以抢占新一轮科技革命的机遇高点以及全球竞争中的主动权。《新一代人工智能发展规划》提出我国要“成为世界主要人工智能创新中心”的战略目标,全局部署了经济、教育、科技、社会发展和国家安全等重要方面。教育强国战略是科教兴国战略、人才强国战略和创新驱动发展战略等重要战略的逻辑起点,人工智能对教育的人才培养能力提出更高要求。近年来,世界各国在发展人工智能的同时也面临巨大挑战,如创新人才问题、高新技术自主可控问题等。人工智能的国际竞争本质是人才的较量,这需要教育从战略层面予以回应。因此,教育在战略上起引领作用,就要既充分发挥智能技术优势推动教育生态系统升级,又谋篇布局为国家发展提供人才支撑。立足技术与教育在角逐中互为塑造的视角,对人工智能促进未来教育发展的探索,更需要在战略上把握先机,通过教育为社会各领域输出创新人才,支撑社会各领域转型升级以及人工智能等高新科技的创新发展,为强国战略注入持续活力与能量。

教育在与技术的角逐中共同推动社会的发展。教育具有超前性、人文性、传承性、战略性及生态性等特点。在人工智能技术的指数式发展面前,教育的超前性变得难以维系;需要慢工出细活的人文性与满足社会用人需求的工具性之间呈现时空拉锯和矛盾;对人类知识的传承则变身为历史传承、人际共创以及人机共创的多重特征。随着人工智能技术推动的发展加速,教育的发展战略、前瞻性谋划,是一个时不我待、任重道远的重要课题。

(作者:顾小清,系国家社科基金重大项目“人工智能促进未来教育发展研究”首席专家、华东师范大学教育信息技术学系教授)

(责编:郝孟佳、孙竞)

分享让更多人看到

人工智能论文范文(5篇)

人工智能论文全文(5篇)

时间:2023-04-1322:16:52

第1篇:人工智能论文范文

第一,植物的规格要确定好,要结合植物所适应的地质条件来对各种规格的植物进行协调搭配。一般来说,中型及其以上规格的乔木作为园林的架构之一,会对整个园林所呈现出来的景观效果起着重要作用,应当先进行安放,然后才是小型规格的植物的安放,保证在园林景观的细节处做好处理;第二,要合理组合植物的品种类型,落叶植物和针叶常绿植物之间在园林中所占的比例应当保持一定的平衡关系,对于植物如花卉、叶丛的颜色要协调好,一般以夏东两季的植物色彩为主色调,其他色调为辅,以保证视觉上能起到互相补充的效果。

2园林设计中人工智能应用现状

2.1系统操作方面

由于园林设计既涉及艺术方法也涉及到技术手段,因此,对操作人员的综合能力要求就比较高,也就是说,操作人员应当对建筑理论、园林绿植知识和计算机基础三方面综合掌握,而事实上,很多参与园林设计的人员并没有很强的工程操作能力,要求太高,难以实现。

2.2园林可重复使用性方面

目前来说,园林的重复使用性还是太低,因为每个地方的气候条件和地理环境都不相同,所以,针对一个地方所制作的园林设计并不能简单地复制到另一个地方,如苏州园林的设计不能直接用在辽宁的园林设计,原因在于北方相对南方来说,园林供水相对困难,山石种类不同,绿植花卉种类也不如南方园林的丰富,而且南北审美观不同,北方园林设计多采用浑厚石材,绿植多为松、柏、杨、柳、榆、槐,加上三季更迭的花灌木,呈现刚健雄浑的特点,而南方则因为花木种类丰富,布局特别,注重山石与水的搭配,独具精致淡雅的特点,由此可见,园林的可重复使用性不高。

2.3计算机辅助设计方面

计算机辅助设计即常说的CAD。目前来说,CAD并不能完全对口符合园林设计的需求,因为CAD只能呈现出单一的图形画面,既不利于设计者进行设计,也不利于客户对设计者的设计的理解,导致客户与设计者之间难免信息不对称,造成一定的信息偏差,影响之后园林设计出来的成果。

3加强人工智能在园林设计中应用的办法

3.1园林子系统的设计

作为整个园林系统的组成部分,园林子系统的设定概要应通过计算机实施建模,来对项目实施进行基本设定,在获得项目系统的自动生成规则之后,在对所收集到的园林基本数进行存档,来作为全局的运行参数,在一定程度上影响了计算机的运行结果。一般来说,存档信息有园林的设计规模、投资情况、发展需求以及相关的环境因素等,存档后,可能会对建筑的规模大小、选址、风格特点以及植物的搭配等造成影响。

3.2地形子系统的设计

地形子系统的设计应当是通过计算机对采集到的地质数据进行推理而后才进行的。一般来说,会采用规则引擎最为计算机的推理机,是基于专家系统的模式下进行推理的,工作原理是由机器来仿造人类在对事件进行考虑的思维和方法,通过进行试探性的方法来进行推理,并不断地对推理所得出来的结果进行解释和验证。对地质情况进行实时实地勘查是保证园林设计图纸正常输出的要求,这是不能单纯地依靠计算机来实现的,因为地质勘查涉及到很多复杂地形的勘查,只能依靠人工的方式。地质勘查可以分为前期阶段和后期阶段。前期阶段主要是设定园林工程的初稿,因此,只要对地质情况进行系统的粗略勘察即可。后期阶段主要是完成图纸设计要求,因此,对数据准确性要求更高,并勘查人员对此进行较为细致的处理。这以后才是通过对计算机智能系统软件的使用来将前期阶段和后期阶段所获得的数据进行智能化处理,完成相关数据的细化以及修正,然后通过系统推理得到一个初步的园林模型。

3.3主干道路子系统的设计

对地形子系统进行地形数据的输出即可得到主干道路设计,因为我们首先完成了地形的设计,因此,在接下来对道路进行设计的过程中就可以有效地避免其他的建筑和设施的干扰,这之后的设计才能按部就班地开展。推理的总体规则为:首先,由园林的建设规模、投资情况等来对道路的类型和所需费用等进行计算,得到相关数据;然后,结合之前的输出地形图来生成推荐道路图,并检查道路的密度是否符合园林的设计规范,接着根据道路建设定额表来对工程造价进行计算,看是否符合预期投资情况;最后,对道路图进行人工的调整,并反复验算。

3.4图纸和图表输出子系统的设计

第2篇:人工智能论文范文

“人工智能”一词最早是在1956年Dartmouth学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能其英文全称为ArtificialIntelligence,缩写为人所共知的AI,它主要是对用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统等进行研究讨论。对于人工智能的定义义众说不一,一般有两种说法:一种是人工智能是关于知识的学科,即怎样对知识进行表示以及怎样获取知识并对知识进行使用的科学;另一种是人工智能研究的是如何实现让计算机做过去只有人才能够做的智能工作。但是不管是哪一种,它都是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能的定义可以分为两部分,即“人工”和“智能”。对于“人工”,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。诞生对于“智能”,则存在着很大的争议。因为这涉及到了诸如意识(consciousness)、自我(self)、思维(mind)(包括无意识的思维(unconscious_mind)等等问题。人类唯一能够了解的智能就是人类本身的智能。但是我们对我们自身智能的理解都非常有限,对构成人的智能的必要元素也了解有限,所以就很难定义什么是“人工”制造的“智能”了。人工智能的实现方式有2种方法。一种是采用传统的编程技术,使系统呈现智能的效果,而不考虑所用方法是否与人或动物机体所用的方法相同。这种方法叫工程学方法(Engineeringapproach),它已在一些领域内作出了成果,如文字识别、电脑下棋等。另一种是模拟法(Modelingapproach),它不仅要看效果,还要求实现方法也和人类或生物机体所用的方法相同或相类似。

2人工智能的发展

对于人工智能的研究一共可以分为五个阶段。第一个阶段是人工智能的兴起与冷落,这个时间是在20世纪的50年代。这个阶段是人工智能的起始阶段,人工智能的概念首次被提出,并相继涌现出一批科技成果,例如机器定理证明、跳棋程序、LISP表处理语言等。由于人工智能处于起始阶段,很多地方都存在着缺陷,在加上对自然语言的翻译失败等诸多原因,人工智能的发展一度陷入了低谷。同时在这一个阶段的人工智能研究有一个十分明显的特点:问题求解的方法过度重视,却忽视知识重要性。第二个阶段从20世纪的60年代末到70年代。专家系统的出现将人工智能的研究再一次推向高潮。其中比较著名的专家系统有DENDAL化学质谱分析系统、MTCIN疾病诊断和治疗系统、Hearsay-11语言理解系统等。这些专家系统的出现标志着人工智能已经进入了实际运用的阶段。同时国际人工智能联合会于1969年成立。第三个阶段是20世纪80年代。这个阶段伴随着第五代计算机的研制,人工智能的研究也取得了极大的进展。日本为了能够使推理的速度达到数值运算的速度那么快,于1982年开始了“第五代计算机研制计划”。这个计划虽然最终结果是以失败结束,但是它却带来了人工智能研究的又一轮热潮。第四个阶段是20世纪的80年代末。1987年是神经网络这一新兴科学但是的年份。1987年,美国召开了第一次神经网络国际会议,并向世人宣告了这一新兴科学的诞生。此后,世界各国在神经网络上的投资也开始逐渐的增加。第五个阶段是20世纪90年代后。网络技术的出现于发展,为人工智能的研究提供了新的方向。人工智能的研究已经从曾经的单个智能主体研究开始转向到基于网络环境下的分布式人工智能研究。在这个阶段人工智能不仅仅只对基于同一目标的分布式问题求解进行研究,同时还对多个智能主体的多目标问题求解进行研究,让人工智能有更多的实际用途。

3对人工智能的思考

3.1人工智能与人的智能

从哲学上的量变引起质变的角度来讲,人工智能在不断的发展过程中一定会产生质的飞跃。在最初,人工智能只具有简单的模拟功能,但是发展到现在已经具备了思考的能力(逻辑推理分析),这已经表明人工智能在不断量变的过程中已经发生了质变。有人认为有人会说人工智能不会超过人类的智能,理由是人工智能是人类创造出来的。但是现实中很多人类创造出来的东西已经在某一些方面超过了人类本身的能力,例如起重机的力气超过人类很多;汽车速度也远超过人类的速度。人类之所以会制造出各种各样的工具,其目的就是希望自身的能力能通过这些工具进行延伸和突破。人类研究人工智能就是希望人工智能帮助人类实现人类某些无法实现的东西。还有人认为人工智能是人类创造出来的,所以它一定存在着致命的弱点,也因此人的智能优于人工智能。但是殊不知人类与机器相比也有着十分明显的弱点,例如人类所需要的生存条件比机器更加的严格,人类思维会受到人的情绪所影响,而机器只是受到程序的影响,它们没有情绪的起伏。就目前的人工智能而言,它们在某一些领域比人类更强。但是目前我们必须正视人工智能的一些还没有办法改变的缺陷,那就是人工智能的学习能力与创新能力。人工智能的知识获取大部门都是人为的进行灌输,而无法像人类自身那样进行主动的学习。同时人工智能只能够利用已有的知识去解决一些问题,但是却还不能够创造性的提出一些新的东西。

3.2对机器人三大定律的困惑

美国最著名的科普作家艾萨克.阿西莫夫提出过比较著名的机器人三大定律:第一定律,机器人不得伤害人,或任人受到伤害而无所作为;第二定律,机器人应服从人的一切命令,但命令与第一定律相抵触时例外;第三定律,机器人必须保护自身的安全,但不得与第一、第二定律相抵触。虽然这只是科幻作家所提出的一家之言,但是也代表了人类对与人工智能发展的一种期望与担心。人们害怕自己所创造出来的人工智能会伤害人类自己。但是阿西莫夫所提出三大定律都是以人类为中心的,而忽视了人工智能本身。或许这是人类的一种天性,世间所有的事物都应该围绕人类自身来定义、发展。就好像人类自以为掌控了能够改变大自然的力量,最终却被大自然反噬一样。同时,随着科学技术的发展,人工智能已经不单单需要逻辑思维与模仿,同时还应该将情感赋予人工智能。因为随着科学家对人类大脑和精神系统的研究的深入,已经愈来愈肯定情感是智能的一部分。如果人工智能具有了情感之后,人类的自我中心又是否会伤害到人类自己创造出来的人工智能。

3.3对人工智能未来的思考

人工智能有着十分巨大的发展潜力,对于人工智能的研究虽然经过了很多年,但是这也仅仅是刚刚开始而已,继续研究下去在很多方面都会有重大的突破。自动推理是人工智能最经典的一个研究分支,它的基本理论是人工智能其它分支的共同基础。一直以来人工智能最热门的研究内容里面就有自动推理,同时在该知识系统中的动态演化特征及可行性推理的研究是一个十分热门的研究内容,很有可能取得大的突破。机器学习一直在致力于研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能。在过去的很长的一段时间内都没有取得十分显著的成果。但是许多新的学习方法相继问世,并且已经有了实际的应用,这充分的说明在这方面的研究已经有了很大的进步。自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。在经过人工智能研究人员的艰苦努力之后,在该领域中已取得了大量令人瞩目的理论与实际应用成果,许多产品已经进人了众多领域。智能信息检索技术在Internet技术的影响下,近年来发展势头十分迅猛,而且已经成为了人工智能的一个独立研究分支。

第3篇:人工智能论文范文

关键词:人工智能;新闻生产伦理;道德困境

一、人工智能技术在新闻生产中的现状分析

诞生于1960年的计算机辅助新闻是人工智能在新闻生产领域最早的应用。2000年左右,计算机辅助新闻开始进入数据驱动新闻阶段。2006年,汤普森公司开始将新闻机器人运用于财经数据分析,并生产出新闻,这标志着现代意义上的人工智能新闻真正产生。当前,人工智能主要依靠自然语言处理、预测分析和机器学习三种技术。在新闻报道中,人工智能的运用大致可分为自动化生产、人机交互和智能推荐三种类型。

(一)数据挖掘和机器写作推动新闻的自动化生产数据挖掘和机器写作是一种打破了新闻人工作常规模式的特殊的新闻生产方式,依赖于庞大的数据资源,运用技术的手段化繁为简,省去了传统新闻出稿的步骤。因此,数据的积累和清晰的数据支撑是推动新闻自动化生产的关键。这种将采访、写作、编辑、校对、分发、反馈等新闻生产环节融合在一起的方式,节省了人力、物力和时间,大大简化了新闻生产的过程,进一步优化了新闻生产的流程。这意味着,在一些专业报道中,机器人挖掘的数据会比记者发现、找到的数据更为精确可信,人和机器展现出平等合作、相互理解、辅助的关系,在不同方面各显其能,互相配合,可以让记者从单调重复的工作中逃离,从而更加专注于挖掘数字背后的意义,去做更有创造力的事。

(二)智能音箱和聊天机器改变人机交互的传统模式2017年7月,国务院的《新一代人工智能发展规划》中提到未来我国几十年人工智能的发展蓝图,着重强调发展人机智能共生的行为增强与脑机协同及人机群组协同等关键理论和技术,并指出未来人机协同将成为主流的生产和服务方式。智能语音服务由两部分构成,一部分是硬件,一部分是智能语音助手。硬件为语音助手提供运行环境,从物理上接受声音指令,并进行反馈。因此,智能语音可以通过声音方便地与终端交流,不需要控制手机或者终端界面就能参与数字生活和工作的方方面面。社会学家戈夫曼的场景理论认为,媒介、场景和行为之间存在高度的关联与互动关系。“场景”作为内容、形式、社交之后媒体的又一核心要素,在定制化需求体验和实现用户价值匹配方面得到了极大程度的体现。从这个意义上来说,智能语音扩张了我们进行媒介消费的空间。

(三)基于兴趣的智能推荐助推新闻传播的个性化人工智能视域下的智能推荐是指通过技术手段介入信息内容和信息受众之间,更改内容的传播方式和路径,从而更好地利用用户行为大数据,在“千人千面”的背景下实现用户不同偏好的内容推荐,达到分析并改变信息受众阅读偏好的效果。2019年,尼曼实验室在预测新闻业趋势时选出的一个关键词是“Newsfatigue”(新闻疲劳症)。因此,基于用户兴趣的算法可以督促记者更加全面地考虑用户需求,增加新闻内容曝光量,唤起用户的更多互动,从而更加有目的地进行个性化的推荐,将信息精准地投向用户,节省时间,优化用户在人工智能视域下的新闻阅读体验。

二、新闻生产伦理在人工智能视域下面临的困境

新闻伦理学的研究对象除新闻工作者的职业道德外,还应包括新闻媒体的社会道德功能。无论是从社会和谐还是科技发展的角度,传统媒体一直遵循的生产伦理价值,如真实性、客观性、把关控制等,都在新媒体技术的冲击下不断地受到挑战。

(一)新闻工作者面临的职业道德挑战1.人在技术裹挟下影响对新闻客观性的认识黄旦教授认为“客观性是指意识到新闻报道中的主观”,从而要求事实和价值分开的一种专业信念和道德准则。2019年两会期间,国内多家媒体都采用了时下流行的轻松、生活化的vlog报道形式。在传统新闻人看来,这种在生产过程中模糊新闻和娱乐、事实和意见的边界,无异于“国家和教堂间的界限”。随着技术的不断发展,算法成了大众传播中的“把关人”,控制着人类信息分发的权力,驱动着媒介生态环境的重构。这种信息生产、筛选与分发其实是一种有意识的信息“加工”行为。技术本身无好坏,但技术如何使用,算法按什么逻辑编写,界面如何设计等,都受到政治经济和人类心理的影响。2.科技的发展加剧新闻反转,影响新闻真实性真实是新闻的生命。近年来,“反转新闻”大量进入公众视野。闾丘露薇认为:“所谓的反转,只不过是公共舆论基于错误或者并不足够的信息而做出的价值判断,之后被更多的事实所证明是错误的而已。”“反转新闻”之所以出现,是由于传统媒体面临着互联网科技的冲击而陷入经济运营的困境,调查型记者的数量急剧锐减,越来越少的媒体机构有充足的时间、资源投入深入的调查。同时,在智能化算法的分发下,具有视觉冲击力、语言夸张的报道得到更多的推荐,使得真相或有用的信息隐藏在众多的声音中,用户更加难以把握事件的真实性。因此,信息不再是人们发现真相的帮手,而变成了认识世界的障碍,当用户无法获得优质的信息时,再多的信息也失去了意义。3.人工智能视域下新闻生产权力主体的转移法国思想家布莱兹•帕斯卡曾说,人的“主体性”指的是“与客体相对的主体所具有的特性,包括独立性、个体性、能动性以及占有和改变客体的能力”。但人工智能介入新闻生产与报道后会对部分职业新闻工作者带来冲击,担心一旦新闻生产的权力从人类手中交给机器,人类为了追求幸福快乐会放弃以人为中心的价值观,秉承以数据为中心的世界观,那么新闻生产者所谓的思想,即其引以为豪的创造天性也就逐渐逝去了,成了麻木的人、过时的人。但就目前来看,机器新闻取代的只是程序化、格式化的新闻报道,而这正是人的主体性得到释放的一种方式和渠道。然而需要承认的是,人工智能发展的脚步不会停止,只会被更巧妙地利用起来。在这种情况下,新闻生产者调和好工具理性与价值理性之间的冲突就显得十分必要了。

(二)新闻媒体面临的社会道德挑战1.个性化的推荐导致信息茧房和政治极化现象2006年,美国学者桑斯坦提出了“信息茧房”的概念,指的是人们根据不同的兴趣、价值观、身份、经历形成不同的部落,通过增强部落内部联系获得归属感。但由于每个人只接触属于自己的个人议程设置,就会出现和圈内人交流加剧意见极化的现象,而对外交流则很难进行沟通,从而使社会意见整合变得更加困难,公共生活更加难以协调,整个舆论生态环境不断恶化,有价值、有意义的信息难以得到有效的传递。如果说,过去我们评价一个新闻事件的影响力,看中的是它是否推动了制度变革,那么现在的评价标准或许就变成造就了几篇“10万+”。尤其是社交媒体中的机器人,运用算法,通过点赞、分享和搜索信息,将未经过筛选的假新闻传播力进行数量级扩大,导致受众缺乏社会责任感,难以认知自己所处的大环境,封闭于自我的想象中,使得极化现象在种族、宗教分裂原本就十分剧烈的发展中国家显得更加突出。尤其是对那些基础机构薄弱的国家来说,虚拟世界的愤怒激发的是现实世界中的暴力。而在经济结构稳定的国家,新闻生产的低门槛和低成本也使得假新闻泛滥,选民的自由意志被操纵,政治站位被重新定义。这一切都是技术缺陷在流量驱动商业模式下所带来的结果。2.社会资本的推动加剧了算法歧视和社会偏见技术和社会之间的关系是双向互动的。一种技术如何被使用、产生了怎样的效果,固然和技术本身的特性有关,但也会受到政治经济社会整体环境的影响。萨菲娅•诺布尔提到,Google搜索引擎的返回结果及其排序主要受到PageRank算法的影响,它会根据一个页面的超链接被其他页面引用的数量来决定搜索结果的排序。其背后的逻辑可以称为“引用多的即是好的或重要的”,这是一种价值判断,也是一种利益交换,遵循和延续了社会上的主流看法,但如果主流看法本身是带有偏见的,那么算法将延续这种偏见。这说明了算法并不是中立客观的,歧视就在眼前,但是披着中立的外衣,对社会上的边缘群体产生系统性的压迫。算法既可能复制主流社会对边缘群体的偏见,也可能受到商业资本的影响,将信息和知识商品化,从而加剧社会的不平等。3.人工智能扩大对数据的使用和隐私的侵犯信息社会的发展使得各国对隐私权保护的重心再一次发生了转移,促成这种变化的原因在于政府和商业组织搜集了太多受众自己都不知道的信息。因此,人工智能时代,我们每个人都生活在数据与算法中,无时无刻不在被“记录”和“监控”着。就像福柯所说的“全景监狱”,受众就是其中的一个个“囚犯”,而作为“狱卒”的媒体集团投其所好地向受众推送新闻,受众在享受人工智能带来的便利服务的同时,也会对自我控制权的丧失、个人信息的使用以及隐私的侵犯感到深深的忧虑。2019年1月,腾讯对各年龄层用户特征进行画像分析的大数据报告被网友质疑:微信“监控”了聊天数据。这不是社交媒体第一次遇到类似的质疑。即使腾讯声称所有数据均已进行匿名及脱敏处理,不涉及具体用户的隐私内容,但并不能完全消除公众的疑虑。当忧虑隐私近乎成为生活的一种常态,我们不禁要思考这样一个问题:我们到底是如何被技术力量裹挟着走到今天这一步的?又是在何时,我们开始认为体验了就要记录,记录了就要上传,上传了就要分享的这种行为模式再正常不过?

三、新闻生产伦理在人工智能视域下的发展策略

(一)从个人层面规范新闻生产伦理智能手机的迅速普及使新闻制作的门槛和成本降低,传统的新闻传播模式被打破,我们已来到一个人人均可发声的“去中心化”时代。作为人工智能时代的信息传播者,我们不仅要提高自我的媒介工具使用素养,还应不断加强在海量信息中筛选出有用信息的鉴别能力,从源头上降低新闻受失真、虚假信息误导的可能性。同时,在传受角色功能定位不断消弭的今天,提高传播者的媒介素养,使其拥有多元化的信息获取渠道、独立自主的思想意识和道德水平,给冰冷的算法和数据注入“温度”和人文关怀,不仅可以抵御经济快速发展带来的社会问题,也是净化舆论生态环境的需要。只有这样,人工智能时代的传媒业才能走得更远。此外,在智能信息时代,科学家、工程师不仅人数众多,而且参与社会重大决策和治理,他们的行为会对他人、社会带来比其他人更大的影响。他们在参与新闻生产的过程中通过合理的结构代码决定什么被看见,什么被隐藏,直接影响着新闻生产伦理。利用技术能做好事,也能做坏事,关键是被谁使用,如何使用。那么,要研究媒体技术在新闻生产伦理中的应用就不能忽视对开发应用这一技术的科技工作者的伦理道德规范。

(二)从组织层面规范新闻生产伦理与其他完全市场化的商品不同,媒体机构的公信力一方面承担着自身的发展前景,另一方面也关乎着国家社会的安全稳定。在人工智能背景下,新时代的媒体机构具有大众性和多元性等特征,覆盖的内容更加广泛,大多是靠广告获取收入,部分是通过付费订阅,且不同媒体机构间的竞争愈发激烈。但受众情愿买单的背后是对媒介机构的信任,一旦媒介机构肆无忌惮地利用受众的信任去欺骗受众,不遵守基本的媒介伦理,终会遭到受众的抛弃。因此,媒体机构要保证新闻的真实性、客观性,不断强化媒体机构履行社会责任的方式,推动社会的进步。在本质上,企业的社会责任和商业利益是一致的。当企业成长得足够强大时,“外部性”就会被内化。一个假新闻和低俗信息泛滥、全民娱乐至上、戾气十足的社会,不会为互联网的健康发展提供适合的土壤,所以要追究新闻平台的主体责任。平台在享受着杠杆规模效应的同时,更应该用高于法律和行业的标准来要求自己。另一方面,对于技术导致的部分问题,平台也可以通过技术的发展来解决。目前,“区块链+媒体”肩负着媒体人的夙愿,虽然这种模式对现有媒体生态的改变十分有限。但从“效率”转向“价值”,单一的技术思维转向立体的社会思维、公共思维来看,这是平台型产品发展壮大过程中的必经之路,也是以后互联网产业的重要动向。

(三)从社会层面规范新闻生产伦理在技术迭展的情况下,与新出现的人工智能相关的法律制定,在缺乏有价值的参照系下,很多方面的实施往往落后于新技术、新实践的发展。因此,我国于2017年开始实行的《网络安全法》对网络运营者在搜集用户信息、个人信息方面做出了规定,并对不当运用用户信息的行为给出了明确的处罚条例。人工智能媒体时代条件下,我们必须本着维护和发展的原则来实现人工智能的法律体系,慎重处理人工智能技术给社会带来的贡献,客观地看待它的价值和潜在的风险,尽快完善法律法规,适应新的媒体环境,特别是在人工智能技术无所不能的情况下,更要强调其价值理性,规范其行为,慎用公众数据,保护公众隐私,营造一个良好的新闻生态环境。

四、结语

人工智能与新闻传媒业的融合越来越成为行业人讨论的焦点。人工智能技术在改变着新闻信息生产、传播方式的同时,也要求着原有的新闻生产伦理做出调整,以适应科技的发展。除此之外,人工智能导致的在新闻生产领域产生的伦理问题,不是技术的失败,而是科学发展与我们对自身及他人在新闻生产过程中产生的伦理之间的深层联系。因此,探究人工智能在新闻生产伦理领域的发展及其带来的问题,不仅能够拓展新闻生产伦理与技术的研究视野,更有助于指导人工智能在未来不断变革的新闻实践。

参考文献:

1.张志强.新闻算法推送对“信息茧房”的构建探究[J].新媒体研究,2018(14):24-25.

2.赵瑜.人工智能时代的新闻伦理:行动与治理[J].学术前沿,2018(24):6-15.

3.许向东.关于人工智能时代新闻伦理与法规的思考[J].学术前沿,2018(12):60-66.

第4篇:人工智能论文范文

陈宝鑫等采用蒙特利尔认知量表,制定中医证候观察表,通过采集中医四诊信息,研究血管源性认知功能障碍合并代谢综合征患者的中医证候特点,总结出血管源性MCI合并代谢综合征组痰、瘀最为多见,非代谢综合征组以阴虚、血虚最为多见。血管源性MCI的证候要素主要为阴虚、阳虚、痰湿、火热、血瘀、气虚、血虚等7个证候要素。张允岭等采用因子分析寻找血管源性认知障碍的常见证候要素,统计其证候要素分布特点,最终得出6种证候要素,按比例大小依次为气虚、血瘀、痰、阴虚、阳虚、火。余忠海等在对历代医家以及大量文献研究的基础上,总结出MCI中医证型可以归纳为肾虚证、血瘀证、痰浊证、气血亏虚证、热毒内盛证、腑滞浊留证、阴虚阳亢证、气郁证。赵明星等以中医证素辨证理论为指导,设心、肝、脾、肺、肾五脏为病位要素,以气虚、血虚、阴虚、阳虚、精亏、痰、瘀等为病性要素,初步发现肾精亏虚证、心气虚证、痰浊证、血瘀证是MCI常见证型。以上对于MCI的中医证候的研究,都是基于小样本,被研究对象大都在65岁以上,而近年来,随着生活方式的改变、社会压力的不断增大,年龄在65岁以下非老年人记忆力也有明显下降趋势,其中也不乏有非正常的记忆减退,即MCI患者,因此,对65岁以下MCI患者的研究应引起足够重视。

二、临床治疗研究

1.药物治疗

田军彪等根据MCI浊凝清窍,瘀损脑络的病机确立了化浊解毒活血通络法,方中石菖蒲辟秽化浊,黄连味苦性寒,苦能去浊,寒可清毒,郁金活血兼有清心开窍之功,三药合而为君。川芎为血中气药,地龙性善走窜,两药可通达脑络气血之瘀滞,丹参、赤芍凉血活血,当归养血活血,诸药共担臣药之职。茯苓健脾渗湿,使痰浊无以生成。泽泻渗湿泄热,使浊毒之邪从下而出,为方中之佐。川芎上行头目兼有引经之用,为方中之使。共奏化浊解毒、活血通络之功。区树阳等治疗MCI则以健脾益气、活血化瘀、通窍益脑为原则。选用半夏燥湿化痰,天麻、僵蚕熄风化痰,白术燥湿分健脾,黄芪、党参健脾益气,丹参、赤芍、桃仁、红花活血化瘀通经络;配合川芎理气通滞、黄精、益智仁补肝肾益智。从化痰通窍汤组成看,经现代药理学研究,方中党参、黄芪、益智仁、白术、黄精,能提高老年人体质和免疫功能,同时丹参、红花、川芎、赤芍、桃仁、半夏可降低老年人的血液黏稠度,对MCI患者的微循环有显著改善作用,对改善老年人认知功能障碍有明显疗效。

2.非药物治疗

针灸等非药物治疗在MCI治疗康复中起着重要作用,针灸是中医又一特色,但是目前研究较少。陈仿英等通过观察64名老年MCI患者,在药物治疗同时给予耳穴压豆(耳穴心、肾、额、皮质下、神门),结果表明耳穴压豆辅助治疗MCI简便易行、无创、无明显不良反应,易被老年人接受。推拿具有疏通经络、调和气血的功效,孙莉等通过推拿百会、风池(双)、翳风(双)、四白(双)、印堂对MCI进行干预,通过调和气血、醒脑开窍,改善脑动脉的血液供应和局部血液循环,从而改善下降的认知状况或延缓MCI进程。潘锋丰认为可以针对加重认知功能障碍的因素进行治疗,如睡眠障碍的评估和治疗在改善患者记忆和认知功能过程中是重要的因素;孤独也被看做是加重认知损害的因素,对于那些社交网络缺乏或相对局限的人群,其痴呆风险增加,而随着社会联系的增加,痴呆风险呈现下降趋势。因此认为,使MCI患者身心放松,保持积极畅快的心情对MCI防治也会产生积极作用,但尚需大样本研究以证实。

三、MCI的预防

随着生活方式的改变、社会压力不断增加,各类疾病患病率明显上升,而65岁以下非老年人患MCI的概率也在不断增大,但医务人员对这类人群的关注度普遍较低,这应引起研究人员重视。在舒缓精神压力的同时,更应该注意MCI的预防。目前,还没有合适的药物可以预防MCI发生,但是,从中医辨证角度来看,65岁以下非老年人的中医证候类型大多以痰浊、瘀血为主,早期进行干预可能会减少MCI发生,同时改变不良生活方式、积极干预危险因素,对减少MCI发生肯定会产生积极作用。

四、问题与展望

第5篇:人工智能论文范文

关键词:科技期刊;人工智能;数字化;同行评议

2021年,中共中央宣传部、教育部、科技部印发《关于推动学术期刊繁荣发展的意见》,指出学术期刊要加快融合发展,推动数字化转型,引导学术期刊适应移动化、智能化发展方向,推动融合发展平台建设。人工智能正推动社会从数字化、网络化向智能化转型,科技期刊是率先有效引入人工智能的领域,人工智能与科技期刊出版的融合是发展的必然趋势。人工智能技术正越来越多地被开发、应用来帮助作者和出版人员,如对海量文献进行检索和分析,提取有用的信息;协助组稿审稿、编辑加工、出版发行;检出学术不端、鉴别数据造假等。人工智能可提高期刊出版和学术交流的效率,保证客观公正性和质量控制,减少人为偏倚和编辑职业倦怠,未来甚至可以指导特定领域如何开展新的研究。科技期刊出版平台未来将不仅限于提供学术论文数据库服务,还可以提供更多的信息和服务,人工智能在科技期刊出版中的应用前景值得思考和探索。

一、人工智能在审稿中的应用

Dimensions数据显示,2019年有超过420万篇,与十年前相比翻了一番。辛巴信息(SimbaInformation)统计数据显示,每年有超过250万篇学术在28000余种英文科技期刊上,科技期刊同行评议的论文数量是这个数量的两倍以上。数量的增加意味着高质量同行评议审稿的需求增加,也带来了严格保持审稿高质量和高标准的挑战。数量如此庞大的学术论文交到数量相对较少的固定的学者间进行同行评议,势必造成审稿效率的低下和学术论文的延迟发表。同行评议过程还存在个人偏见,审稿人可能是稿件作者的竞争者或反对者,抑或是朋友、未来的合作者或资助者等,这些可能会影响审稿意见的客观性和公正性。在实际的期刊出版工作中,也缺乏对审稿人审稿质量,以及拖延审稿或无效审稿等不当行为的约束和监督。这种情况亟须人工智能等可用于决策支持的技术来保证海量论文得到严格、一贯且高效的审评。引入人工智能技术可以大大优化审稿流程、提高审稿效率、缩短审稿周期。人工智能可以从网络出版平台的专家数据库中快速匹配符合选题方向的审稿专家,帮助提高审稿的效率和成功率。人工智能可以在数据库中根据研究方向、审稿记录、审稿效率和其他预设条件等,自动筛选最合适的审稿专家,分析排序后生成审稿人列表;并根据审稿人信息自动完成审稿邀请邮件的发送,还可以实时监控审稿状态和审稿人反馈;一旦出现审稿超时,自动向列表中下一位审稿人发出审稿邀请;收到审稿人的审稿意见后,实时通过邮件、APP、短信等及时反馈给期刊编辑进行相应处理。人工智能还可以根据论文标题、摘要、关键词和正文内容等对来稿进行初审,对图文进行快速识别,对论文的真实性、合理性、逻辑性、科学性、创新性和规范性等做出判断,为编辑初审提供详尽精准的参考。人工智能可以对论文的学术价值进行初步判断,对其中的文字和插图等进行深度识别。人工智能可以整句或整段地阅读释义,能识别出传统软件识别不出的同义表达,如此可减少学术不端,保证期刊的学术价值和品质。人工智能或许可以一定程度上遏制掠夺性期刊和掠夺性出版的泛滥。人工智能通过帮助编辑寻找新的审稿人并进行自动审稿等,大大提高学术和科技出版机构编辑出版高质量学术论文的能力,增加学术和科技期刊的论文接纳能力,也就减少了掠夺性期刊侵占学术资源的机会。人工智能还能对已发表的论文进行自动浏览回顾,基于掠夺性期刊的一些特征和标准,帮助筛选出那些不坚持标准的掠夺性期刊和出版商。Elsevier用人工智能软件EVISE取代了其过时的编辑系统,支持其编辑流程,提高了学术论文处理效率。EVISE可将来稿链接学术不端检测软件,从数据库中筛选推荐合适的审稿专家,链接其他项目资源对稿件内容、科学性和审稿人利益冲突等进行检测,自动生成与个人或机构的往来邮件等。开放获取期刊出版商Frontiers推出人工智能软件AIRA,对Frontiers的10万名编辑、审稿人和作者开放,能帮助他们自动评估学术论文的质量。AIRA可以阅读每篇论文,并在几秒钟内给出20条建议,包括对文字质量、图表的完整性、学术不端检测以及可能的利益冲突等。AIRA经过了Frontiers的审稿经验培训和测试,已完全融入Frontiers的内部工作流程,自动筛选和识别潜在的审稿人,加快审稿进程的同时,保证质量控制和客观公正,缩短了发表时滞,提高了出版效率。AIRA通过给出建议及半自动化检查的方式提供决策支持,仍然由相关领域专业人士做出最终决策,这种用户反馈被AIRA捕捉并进行学习和自我完善,这种人机协作有助于保证高准确性和高效率。

二、人工智能在策划选题中的应用

传统的策划选题依靠编委和编辑的经验、知识积累对学科发展方向的判断和预见,这种方式受人为因素限制,容易忽略有价值的选题且费时费力。未来,我们可借助人工智能的帮助,对已发表的海量文献、资源数据库进行检索分析,获取有用的信息进行相应的操作。人工智能可以从网络出版平台的专家数据库中快速匹配符合选题方向的作者,帮助提高组稿的效率和成功率。数据思维就是利用数据来深度挖掘和了解需求,了解存在和需要解决的问题,通过量化的数据来解决问题。人工智能基于大数据可以辅助选题策划选题、收集专家学者信息和研究方向,通过读者阅读信息和反馈来分析其关注点和需求,提供个性化的文献检索和信息传递服务等。人工智能可以通过对大数据的深度挖掘和学习,通过云计算技术,敏锐捕捉专业领域的新热点、新技术、新理论等;基于读者的阅读习惯、倾向及频率等进行量化分析,获取读者的需求信息;对国家自然科学基金等基金组织申报和资助情况、科技奖获奖情况、国际学术会议研讨热点等进行整合分析,对文献数据库等潜在信息进行挖掘和分析,快速推测出哪些内容具有独创性、前瞻性和话题性,生成选题策划资源库,帮助期刊编辑更精准高效的策划选题。基于人工智能的新型搜索工具Iris.AI,可以帮助学者从海量文献中筛选研究论文或专利等,提取关键的数据和要查找的信息。学术搜索平台SemanticScholar也是基于人工智能自主学习的学术搜索引擎,可快速筛选相关有用内容,并在一定程度上理解这些内容,展示相关主题历年文章发表情况及相关推荐内容等,可辅助期刊策划选题。

三、人工智能在编校加工中的应用

传统期刊出版工作中,编辑需要在细致琐碎的编校加工工作中花费大量时间和精力,编辑主观因素影响编校质量和效率,编辑易产生职业倦怠,传统编校模式难以应对现代出版工作快节奏和大体量的挑战。人工智能可以自动对稿件进行编校加工,帮助提高科技期刊的编校效率和规范编校质量。人工智能不仅能对错别字、语法等进行更正处理,还能对专业词汇的表达、参考文献的格式、引用是否合适等进行识别,还能检查出是否遗漏重要的研究部分、统计学分析方法是否有问题、是否为了达到想要的结果而改动过数据,还能理解图像和说明文字的逻辑关系,自动为插图补充描述性文字、为文字配上插图、为文本格式的文字生成曲线图等,还能完成后续的排版和校对。将机械、重复、枯燥的编辑工作交给人工智能完成,这将大大减轻编辑的工作负担,并大大缩短稿件的处理周期。IBM公司的智能机器人“沃森”曾为名为TheDrum的市场营销公司独立编辑出版了一整期杂志,这期杂志大部分内容的编辑、加工、排版和校对等都由人工智能独自完成。科技期刊内容的编校涉及对稿件内容的理解,但人工智能依然能很好地完成内容和格式的编校加工和规范化处理。人工智能还可以帮助编辑高效处理信息、调取和整合分析数据资源,优化期刊出版流程和期刊编辑的工作内容。编辑有望从原来繁琐的工作中解放出来,转到对专业性和方向性的把控上。

四、人工智能在推广发行中的应用

人工智能可以高效完成学术成果的推广和传播。人工智能程序可实时将科技期刊论文向所有大型学术论文数据库上传发送,并能根据读者研究领域、浏览阅读习惯、科研和社交平台动态等大数据进行实时监测分析。基于读者的信息需求,实现向相关领域读者的精准信息推送,大大提高学术成果的传播效率和影响力。人工智能平台还可通过对读者的需求信息进行分析,获取相关领域关注点,反馈给期刊审稿系统,增加对相关学术内容的收录建议。国家新闻出版署武汉重点实验室打造的开放科学计划(OSID计划),体现了利用人工智能实现多元化精准推送的重要性,打破传统出版模式编辑到读者的单向内容服务模式,为读者和作者提供了多维度交流空间,丰富了学术论文的传播交流方式,扩大了学术传播的广度和深度。TrendMD公司的内容推荐引擎,可以将科技期刊的稿件推荐到上千个科研网站。期刊网站安装TrendMD插件后,经过筛选的内容链接便会自动出现在网页的指定位置,通过数据挖掘算法对稿件进行自动推荐,将相关内容推荐给感兴趣的潜在读者,实现科技期刊学术资源的精准传播和高效共享。通过精准推送,科技期刊的论文曝光率和点击率都会增加,一方面为学者开展学术研究提供了新的资源和参考,另一方面实现了科技期刊传播推广的效率和精准度。

五、人工智能在论文写作中的应用

人工智能也被尝试用于论文写作,人工智能软件不仅可以实现识别和记录功能,还能学习掌握不同专业的写作方式和技巧,能高效地协助作者完成论文写作,甚至还能进行内容创新。例如,ManuscriptWriter软件可以从SciNote的ELN和开放获取杂志的相关文献提取数据,通过机器学习和人工智能技术,帮助作者生成一个论文初稿,供作者进一步编辑利用。Trinka是首款专为学术、科技和商业写作设计的人工智能软件,能纠正上万种复杂书写错误,且能纠正其他工具不能检出的复杂语言错误,尤其是学术和科技写作中的专业术语及专用表述等,对论文给出详细建议。但人工智能软件撰写的假论文事件一度引起人们对科技期刊同行评议制度的质疑,SCIgen软件生成的假论文骗过了斯普林格等知名出版机构和期刊。可能在收集相关资料用于背景的撰写方面,人工智能有一定的优势,但撰写后面的讨论部分,就需要研究者的智慧了。讨论部分是最具创造性和创新性的部分,最能体现研究者个性风格、行文习惯和思维方式的部分,每位学者都会将自己的专长和学识等融入讨论部分,这不是人工智能可以轻易取代的。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇