人工智能时代的制度安排与法律规制
“这是最好的时代,也是最坏的时代”,英国文学巨匠狄更斯在其名著《双城记》中的开篇话语,一百多年来不断地被人引用。在这里,我们再次以此来描绘人工智能时代的未来图景。一方面,智能革命无疑将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。
在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。人工智能现已成为全球新一轮科技革命和产业变革的着力点,在人类智慧能力无穷增大的“科学梦”背后,是一片蕴藏无限生机的产业“新蓝海”。
社会正在从“互联网+”向“人工智能+”转型,旧领域生发出新的产业形态,多领域催生了新兴的细分行业,由此创造出巨大的经济价值和社会财富。在谷歌、脸谱、IBM等领军企业的带领下,全球对人工智能的关注度不断提升。截至2015年,人工智能国际市场的规模为1683亿元,预计到2018年将增至2697亿元,增长率达到17%。在投资规模方面,2015年为484亿元,预计到2020年,投资总量将达到1190亿元。
可以认为,人工智能将从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联、无处不计算”的环境下精准生活。但另一方面,智能革命也将给我们带来诸多麻烦,也许我们面临着一个社会问题丛生和安全隐患不断的“最坏时代”。
到目前为止,人工智能已在全球范围内逐步建立起自己的生态格局,并开始深度介入人类的社会生活。2016年,距离麦卡锡、明斯基、香农等人提出人工智能的概念正好过去60年。在过去的一年,人们看到了许多存在于科幻小说的内容成为现实:人工智能击败了人类顶尖棋手,自动驾驶汽车技术日趋成熟,生产线上活跃着“机器人”群体……“智能时代,未来已来”。人们在为人工智能的强大能力感到惊叹的同时,也激发了对人工智能安全问题的普遍忧虑,人工智能是否成为人类“最后的发明”?我们应该如何看待人工智能的潜在风险?
人工智能对人类社会的潜在风险,聚焦于威胁人类自身安全的可能性,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由。科学家认为,人工智能存在着威胁人类存续的可能性,但这种风险不是由于自发的恶意所引起,而应来自人工智能发展过程中出现的不可预测性和潜在的不可逆性。
质言之,人类有智慧能力创造出人工智能,也应有能力和理智来控制人工智能。因此,“最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它。”我们应当思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展,这即是法学家、法律家的任务。
人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。德国学者贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。
在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”而法律秩序则是法律制度实行和实现的效果,即社会生活基本方面的法律和制度化。现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵。
人工智能既是人类文明,亦有社会风险。它或是“技术—经济”决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。换言之,知识问题是现代性风险的根本成因,制度以至法律选择的实质应是基于风险的决策。正是在这个意义上,贝克提出知识经济就是“风险经济”,“风险就是知识中的风险”。具体说来,人工智能时代的社会风险具有以下特点:
一是风险的共生性。风险社会的内在风险,基于技术性风险和制度化风险而形成,且存在共生状态。人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。现代社会中的风险是“被制造出来的风险”,是由我们不断发展的知识对这个世界的影响所产生的风险。
马克斯•韦伯形象地指出,人类在不久的将来注定会生活在“技术知识的囚室”。人工智能是知识革命中最具代表性和影响力的时代技术。“对知识体系和技术性知识的信任,是人们在风险社会中获得和持有本体性安全的基础和保证。”从“反思的现代性出发,对法律及其保护的先进技术仅为信任是不够的,人工智能在其发展过程中出现的不可预测性和潜在的不可逆性”,其本身就是一种风险。
同时,人工智能时代的风险含义,还依赖于这样的一个事实,即文明的决策可能触发全球化进程中的一系列问题和一连串的风险,直言之,“风险以决策为先决条件”。制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的“制度缺失”,或是表现为对新技术错判的“制度失败”。这些即是规则运转失灵的风险,其结果形成制度化风险。
二是风险的时代性。在风险社会理论中,风险社会这一概念并不是社会发展类型的某一历史分期,也不是某个具体社会和国家的现实发展阶段,而是对当今人类时代问题的理论概括与形象描述。智能革命是时代的产物,其特点是人类智力与人工智力的结合,智能技术导致智力物质化、社会智能化,最终出现智能社会。
智能社会的形成将是一个长期的过程,或者说是一个时代变迁。以人类思维能力和意识的迁移为表征,以智能机器人的活动为中心,人工智能的发展将会递进呈现出不同阶段。如何应对智能时代中现实世界与理念世界的分离,如何防范病毒、黑客对人工智能产品的侵蚀,这种高科技所引发的高风险会持续整个智能革命的时代过程,它是现实的风险,也是未来潜在的风险。
三是风险的全球性。经济全球化、科技全球化、信息全球化乃至治理机制的全球化,不可避免地带来风险的全球性。反全球化主义者认为,全球化正在催生另一种形态的帝国体制:互联网是“信息帝国主义”,世界贸易组织是“市场帝国主义”,国际货币基金组织是“金融帝国主义”,而联合国是“政治外交的帝国主义”。贝克对此作出了自己的判断:全世界面临着社会认同解体、价值利益冲突、主体组织对立、国家立场对峙、生态环境破坏等不确定因素,这些危机与发展遍布全球,形成对人类生存的新威胁。
可以认为,风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化的边界。正如吉登斯所言,“在全球化的时代里,风险的影响被普遍化了。”在人工智能风险的国际应对方面,2016年联合国发布《人工智能政策报告》,表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了新的思考方式和解决途径。报告呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。
科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。面对智能革命,我们不能逃避它、否定它和阻止它。上述判断依赖于以下两点事实:
第一,人工智能技术在造福人类的同时也加大了人类危害自身的可能性,这即是技术的负面性与风险的不确定性的联系。
第二,传统社会治理体系无力解决工业社会过度发展而产生的社会问题,这即是法律的确定性与风险的不确定性的背离。对于现代各国而言,人工智能发展的政策考量,其实是基于风险的制度选择和法律安排,我们应“通过法律化解风险”,“通过法律吸纳风险”,“将风险社会置于法治社会的背景之中”,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。
人工智能技术在挑战我们的法律
智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:
1、机器人法律资格的民事主体问题
随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。
是否赋予机器人以虚拟的“法律主体资格”,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronicpersons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。
机器人是机器还是人,在法理上涉及到主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟现在正发生动摇。
从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架已然打破:人的遗传基因物质不能简单作为客体物看待,而没有生命但具有人工智能的机器人也有可能被赋予法律资格。将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。日本学者北川善太郎认为,在民法上,“法的人格者等于权利能力者”,关于人或法人的规定,“表现了最抽象化层次的抽象的法人格”。
法人格概念的意义在于揭示民事主体的内在统一性和其实质,界定主体与客体的关系。“民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。”
从法律技术逻辑层面看,《德国民法典》以权利能力核心概念为中心,进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。
基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。据多数科技专家研究,由于人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。质言之,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同;同时,机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。
在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。换言之,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位。
2、人工智能生成作品的著作权问题
人工智能的实质,是“让机器从事需要人的智能工作”,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。从计算机到机器人的发展,在作品创作方面即是一个从阅读到写作的跨越。
在机器人时代,某些作品就是人工智能的生成内容。据美国NarrativeScience的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人的写作方式,采取“信息→知识→智能”的技术路径,基于“人机合作”系统而导致内容生成。该行为是否构成法律意义上的“独创性”或“主观能动性”,一些国家和地区的法学家试图作出正面回应。
有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风;欧盟法律事务委员会提出动议,拟赋予机器人以著作权。
关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。依世界知识产权组织的权威解释,作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的。”
这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。
这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。
3、智能系统致人损害的侵权法问题
智能型“新一代机器人”,与传统的执行重复任务的工业机器人不同,它拥有相对的自主权和更高的人工智能水平,且将广泛而深入地参与人类社会的生活。“智能型机器人”的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。
机器人致人损害有两种情形:
一是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。在这种情况下,发动黑客攻击或传输病毒的侵权人应该承担法律责任自不待言,这些不是本文研究的主要话题;
二是智能系统自身的产品瑕疵而造成的损害。据报道,早在上个世纪80年代,日本即发生过工业机器在作业现场将工人置入机器压死的事件;2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。
上述致人损害的事由,究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用?甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。
关于智能系统致人损害责任的认定,有两种责任方式可供选择:
一是基于行为人过失所产生的产品责任。在侵权责任法中,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身损害、财产损失或有致使他人遭受人身、财产损害之虞而应承担的特殊侵权责任。致人损害的产品,必须存在缺陷,它包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷。
上述情形符合智能系统致人损害责任的一般特征。2016年,联合国教科文组织会同世界科学知识与技术伦理委员会发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。从产品责任的认定条件来看,机器人造成的损害可归类于机器人制造者和销售者的过失,包括产品制造的过失、产品设计的过失、产品警告的过失以及没有尽到合理的注意义务。
二是基于技术中立原则所产生的替代责任。关于技术产品致人损害,技术中立原则可提供责任规避。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用“技术中立”原则。在这种情况下,适用替代责任较为适宜。替代责任又称为转承责任,最初出现在代理关系与雇佣关系中,即被代理人对代理人实施的,得到被代理人“授权”或“批准”的侵权行为承担责任;雇主对其雇员在“雇佣期间”实施的侵权行为承担责任,概称为“为他人侵权行为承担责任”。
在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。
4.人类隐私保护的人格权问题
网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。
个人信息包括了当事人不愿他人知道或他人不便知道的隐私信息,主要类别有:个人登录的身份和健康状况、个人的信用和财产状况、电子邮箱地址、网络活动踪迹等。在信息化社会,这些零散的和广泛的个人信息有可能被收集,并进行数据处理,从而拼合成所谓数字化人格——在很大程度上是被迫建立的人格,个人毫不知情的人格。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。
面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用:
一是增强自我保护意识。在当下的移动互联和今后的万物联网的时代,我们本身就是隐私的泄密者:智能手机安装了太多而不甚使用的APP,社交网络讲了太多而不适宜公开发表的言论,都可能造成隐私泄露;还有各种电子产品,从带有GPS的照相机到与WIFE相连的智能电器,都精细地记录私人的行踪和生活信息。在人工智能时代,挖掘个人隐私是由机器完成的,因此保护隐私,须从自己做起,对智能电器有防范之心;
二是强化企业保护用户隐私的责任。企业须负有保护用户隐私的意愿和责任,“这将是用户隐私是否得到有效保护的关键”。在当下,用户数据日益聚集在大型互联网或数据处理的企业手中,对其进行保护个人隐私的责任约束就显得非常重要。在欧盟和美国,根据政府要求,也出于用户主张,服务条款应特别声明从用户获得的数据属于用户本人,如对个人数据有不当处置,应承担责任。这不仅是合同规定的违约责任,也是违反法律的侵权责任。
三是加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。
例如,美国1974年制定《联邦隐私权法》,是为隐私权保护的基本法,后又于1986年通过《联邦电子通讯隐私法案》,2000年出台《儿童网上隐私保护法》,此外还颁布了《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。
欧盟则在1997年通过《电信事业个人数据处理及隐私保护指令》之后,又先后制定了《网上个人隐私权保护的一般原则》、《信息公路上个人数据收集处理过程中个人权利保护指南》等相关法规。隐私权的保护,是信息时代特别是人工智能时代的法律难题。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。
5.智能驾驶系统的交通法问题
人工智能在交通领域的重要应用是网联自动驾驶。智能驾驶通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术,实现了“人工智能+无人驾驶”,颠覆了以往的人车关系、车车关系。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。
无人驾驶汽车可能带来的法律问题,主要有:
一是法律规制对象的转变。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者;
二是法律责任体系的重构。以过错责任为基础而建立的“风险分配”责任体系,在未来的交通法规中将不复存在。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。
三是交通监管重心的变化。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能;而在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。
6.机器“工人群体”的劳动法问题
人工智能技术发展的基本面向,是对人-机关系的改变。智能机器人的大规模应用,一方面推动了社会生产力的发展,大大提高了生产效率;另一方面也带来了社会结构的变化,使得人与机器人的关系成为社会生活的重要方面。以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题:
一是传统劳动法的调整功能消减。据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代,其中包括文秘、工人、中介、司机等一大批岗位。报告特别指出,目前软件工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替。这些都对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”
二是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。
欧盟法律事务委员会动议,主张人工智能具有“工人”身份,并赋予其劳动权等“特定权利与义务”;韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。
法律制度总是滞后的,但关于法律问题思考应该是前瞻的。面向智能革命时代,我们应在认识和分析现行法律困境的基础上,探索与科学文明相伴而生的制度文明,创制出有利于人工智能健康、有序发展的社会规范体系。
面向未来时代的制度构成:法律、政策与伦理
法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。
“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度。”面向未来时代的制度构成,应以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:
1.以安全为核心的多元价值目标
人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。人工智能时代的法价值即是人类法律理想价值观的追求,是价值这一哲学范畴的法律化表现。法律的理想价值总是高于法律现实价值,可以为法律制度的演进提供目标指引和持续动力。
人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。其中,“正义是社会制度的首要价值”,也是作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成了人工智能法律构建的正当性基础。在最高法价值指引之下,人工智能法律还存在着专门法的特别价值,这主要是安全、创新和和谐。
安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。对此,法哲学家雷加森斯·西克斯言道:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律”。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。
人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。
创新是人工智能法律的价值灵魂。在特定的时代背景下,特定的法律制度会包含若干不同的价值项,而且其各自的价值侧重点也有着不同。当代经济的发展着重依靠知识和信息的生产、分配和利用,创新业已成为知识经济时代的主要特征。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:
(1)谋化国家发展战略。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;
(2)制定产业促进与监管的政策法律。在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;
(3)完善知识产权创新激励机制。通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。
和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。
在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。
2.以伦理为先导的社会规范调控体系
人工智能时代的文明,需要相应的行为规范作为社会关系的调整器。就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。
从人类文明创始到现今人工智能时代开启,社会行为规范已然成为一种制度体系。社会规范调控体系或系统,是指在一定的国家、地区、领域内存在的,由一定的社会经济关系所决定的社会规范而构成的相互联系、相互制约的统一体。在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活的不同领域发挥不同的影响和作用。
对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。
在发达国家,对人工智能的伦理研究早于立法研究。近年来,欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。
此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。
概言之,伦理规范的调整功能非常独到且为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。
3.以技术和法律为主导的风险控制机制
人工智能技术不仅是高技术,而且是高技术的核心,可称之为高技术核。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,即“人类在利用技术时违背技术自身规律而产生的社会风险”。人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。
法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,专利法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。此外,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。
技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,是奉行技术民主原则(包括技术信息适度公开和公众参与、公众决策)。
防范人工智能的技术性风险,不仅涉及强化法律规制的传统制度改造,而且要求建立以社会监管为重要内容的政策体系,同时形成以全面理性(包括社会理性和科学理性)为基本内涵的风险控制机制。
中国正在走向人工智能时代。世界新一轮科学革命、产业变革与我国转变经济发展方式形成历史性交汇。对人工智能的发展和规制进行制度安排,是时代新潮流,也是国际大趋势,更是本土创新发展的内在要求。笔者认为,在制度构建方面,目前有三项重点任务:
一是尽快出台国家发展战略,以此作为人工智能政策体系的支撑。从国际层面看,美、德、英、日等国加快人工智能顶层战略设计,从国家层面统筹人工智能发展。在我国,《“十三五”国家科技创新规划》和《“十三五”国家战略性新兴产业发展规划》,对人工智能发展做出重要表述。但总体而言,我国人工智能政策还没有上升到国家战略高度,人工智能的战略地位凸显不足,人工智能发展的统筹协调部门未予明确,政府、社会以及企业的责任分工尚未厘清。
国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。中国必须高度关注智能革命发展前景以及引发的相关社会变革,尽快作出相应的战略政策部署;
二是及时制定《机器人伦理章程》,以此作为人工智能研发、应用的道德基础。在一些发达国家,对人工智能的伦理研究早于法律研究,诸如《机器人伦理宪章》、《机器人伦理学路线图》等,都是将安全评估和风险防范作为人工智能伦理规范的重要内容。
我国似可组织政治家、科学家、企业家、法学家参加的专家小组,编写机器人伦理章程,构建人工智能伦理规范,其要义包括:设计伦理框架,为机器人预设道德准则;强化科技专家的社会责任,为人工智能研发、应用提供道德指引;引导公众接纳人工智能,为调整人—机关系规定道德模式;
三是适时进行机器人专门立法,以此作为人工智能法律的基本规范。人工智能技术对传统法律制度带来巨大挑战,以至现有的法律理念与规则在“高技术核”面前几乎无所适从。在这种情况下,法律制度需要创新变革自不待言,而寻求一个调整人类与智能机器相互关系的专门法将是一个最终的选择。
对此,欧盟的立法行动最快。据报道,欧洲议会已正式向委员会提出议案,拟制定“人类与人工智能/机器人互动的全面规则”,这或将是首个涉及机器人的立法草案。我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。
结语
未来时代已经到来。这是一个创新的时代,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,已成为一个具有普遍意义的关系范畴。人们在生产力、生产关系和上层建筑所有领域中进行的创造性活动,即技术进步和制度变革都是一种创新过程。
智能革命引发的法律、政策和伦理话题刚刚开始,伴随人类社会的知识创新,我们需要跟进理论创新和制度创新。法学家和法律改革家们需要秉持理性主义精神,去发现和探索一个理想的法律制度体系。我们有理由相信,科学技术的智慧之光与法律制度的理性之光,将在人工智能时代交相辉映。
作者:吴汉东
来源:《法律科学》2017年第5期
备注:好文分享,版权归原作者。如遇侵权,请联系我们删除。
迈克尔・乔丹:人工智能,革命远未发生
通向人工智能的道路:图灵机与控制论之分歧返回搜狐,查看更多
人工智能击败人类围棋大师:但远称不上超级智能
新浪科技讯北京时间1月29日消息,人工智能近日取得了重大突破。谷歌在英国的研究人员研发的一款计算机系统在围棋比赛中击败了一名顶尖棋手。作为一种古老的东方策略类游戏,在过去的几十年间,围棋曾无数次使人工智能败下阵来。
在大多数用来考察人类智慧的游戏中,如国际象棋、拼字游戏、奥赛罗棋、甚至《绝境边缘》(Jeopardy,一个益智问答游戏节目)中,机器都能毫不费力地击败人类。但围棋是一个例外。这款游戏有着2500年的历史,比国际象棋要艰深复杂得多,即使是最机敏的计算机系统,也比人类围棋大师要差了一大截。就在本月初,一些业内顶尖的人工智能专家还质疑近期内我们能否在这方面取得突破。去年更有很多人认为,还要再过十年,机器才可能在围棋比赛中取得上风。
但谷歌已经成功了。“这比我想象的要快得多。”法国研究人员雷米?科隆(RémiCoulom)说道。他研发的人工智能系统曾是世界上最出色的机器围棋选手。
谷歌DeepMind团队自称“人工智能领域的阿波罗计划”。2015年10月,他们在伦敦组织了一场机器与人类之间的对决。该团队研发的系统名叫AlphaGo,它要对付的人类选手是欧洲围棋冠军樊麾。在《自然》杂志的一名编辑和英国围棋联合会(BritishGoFederation)的一名权威人士的监督下,他们连续进行了五轮较量,AlphaGo均取得了胜利。“无论是作为一名研究人员还是编辑,这都算是我职业生涯中最令人激动的时刻之一。”《自然》杂志编辑唐吉?肖尔德博士(TanguyChouard)在本周二的一次记者会上说道。
英国时间1月27日早晨,《自然》杂志发表了一篇论文,详细介绍了DeepMind团队研发的系统。该系统采用了一种名叫“深度学习”(deeplearning)的人工智能技术,这种技术在该领域的地位正变得越来越重要。DeepMind的研究人员从专业棋手那里收集了大量走棋方法,总步数多达3000万次,并利用这些数据对AlphaGo系统进行了训练。但这还只是第一步而已。从理论上来说,这样的训练方式顶多能让计算机系统和最优秀的人类选手达到同等水平,不可能超越人类。因此研究人员先让该系统自己和自己比赛,在这一过程中产生更多的走棋方法,然后再用这些方法训练新的人工智能系统,逐步提高其围棋水平。
“最重要的是,AlphaGo不仅仅是一个出色的人工智能系统,只知道实行人工植入的规则”,负责监管DeepMind团队的德米斯?哈萨比斯(DemisHassabis)说道,“它还采用了目前普遍使用的机器学习技术,从而在围棋比赛中取胜。”
这次胜利其实并没有那么新奇。谷歌、Facebook和微软等线上服务提供商已经使用了深度学习技术,用于辨认图像、识别语音、以及理解自然语言等。DeepMind将深度学习与一种名为“增强学习”的技术和其它方法结合起来,说明在未来的世界中,机器人能够学会执行各种动作,还能对周围环境做出反应。“对于机器人来说,这是顺理成章的事情。”哈萨比斯说道。
他还认为这些手段能加速科学研究的进展。在他的想象中,科学家有一天会和人工智能系统一起工作,而这些人工智能系统将会被运用到可能取得丰硕成果的研究领域中去。“计算机系统能够处理大量数据,揭露数据结构特征,工作效率远比人类专家要高——有些事情人类甚至根本做不到。”哈萨比斯解释道,“这些计算机系统甚至能为人类专家指明研究方向,引领他们取得突破。”
但就目前来看,围棋仍然是哈萨比斯最关注的领域。在让AlphaGo在办公室中打败人类选手之后,哈萨比斯及其团队希望能在公开的竞技场上,和世界顶级围棋选手一决高下。今年三月中旬,AlphaGo将挑战韩国棋手李世乭,后者赢得的国际大奖数居世界第二,是过去十年中获胜次数最多的棋手。哈萨比斯将他视为“围棋世界中的费德勒”。
以“貌”取胜
2014年年初,科隆研发的围棋软件Crazystone在日本的一次锦标赛中向围棋大师依田纪基(NorimotoYoda)发起了挑战,并取得了胜利。但这次对决并不公平,因为机器可以先走四步,占据了巨大的优势。当时科隆预言称,人工智能至少要再过十年才能在无让子的围棋比赛中取胜。
这项挑战的难度是由围棋本身的特点决定的。即使是最强大的超级计算机,也缺乏在合理的时间内、分析出每种走法可能的结果的能力。1997年,“深蓝”击败了世界顶级象棋棋手加里?卡斯帕罗夫,它使用的算法名叫“蛮力穷举法”。它分析了每一种可能的走法将产生的结果,而人类是不可能考虑这么多的。但这种方法对围棋就无效了。在国际象棋中,平均每回合有35种走棋方式。而围棋每回合有250种可能的走棋方式,250种中的每一种又有250种,以此类推。哈萨比斯指出,围棋棋盘上可能的布棋方式总和比宇宙中所有原子的数量还多。
利用一种名叫蒙特卡洛树的搜索算法,像Crazystone这样的程序可以提前算出很多步走棋结果。再配合其它技术,它们还可以逐步去除需要分析的走法。这样一来,它们迟早会打败一些出色的棋手——但无法击败最出色的棋手。对于棋类大师来说,走棋很多时候靠的都是直觉。棋手会根据棋子的整体分布来选择走法,而不会细致地分析每一步的结果。“好的位置看起来就很好,”哈萨比斯说道,他本身就是一名围棋棋手,“围棋似乎也遵循一定的审美原则,所以这种游戏才得以延续数千年。”
但在2014、15年之交,一些人工智能专家,包括爱丁堡大学、Facebook、以及DeepMind团队的研究人员,开始采用深度学习法解决围棋问题。他们的想法是,这种技术能模拟人类的直觉,而直觉正是下围棋时必不可少的东西。“围棋是一种含蓄的游戏,讲究图案的配合,”哈萨比斯说道,“而那正是深度学习法所擅长的领域。”
自我增强
深度学习需要依赖所谓的“神经网络”,即由硬件和软件组成的、模拟人类大脑中神经网的网络。这些网络采用的不是蛮力穷举法,也不依靠人工植入的行动准则。它们会对大量数据进行分析,试图“学会”执行某个特定的任务。如果让神经网络看大量的袋鼠照片,它就能学会认出一只袋鼠。如果让它听大量的单词,你再读出这个单词时,它就能听出来你说的是什么。如果让它了解大量的围棋走棋方法,它就能学会下围棋。
DeepMind团队、爱丁堡大学和Facebook的研究人员希望,神经网络能够通过“观察”棋子位置掌握下围棋的方法,和人类差不多。Facebook近日在一篇论文中指出,这一技术使用起来相当不错。他们将深度学习法和蒙特卡洛树搜索方法结合起来,成功让计算机打败了一些人类围棋棋手。不过他们还没有击败Crazystone和其它顶尖的人工智能系统。
但DeepMind成功将这一概念向前推动了一大步。在接受了3000万步人类的围棋走法训练之后,DeepMind神经网络能够以57%的成功率预测人类下一步的走棋方法。这个成功率可谓十分惊人(此前的记录是44%)。接下来,哈萨比斯及其团队采用增强学习法,让这个神经网络和另一个与之稍有不同的网络进行比拼。在两个神经网络比赛的同时,系统会追踪哪种走法带来的效益最大。利用这种方法,该系统越来越能够识别出哪种走法能够取得成功,哪种走法则会导致失败。
“AlphaGo的神经网络和自己比赛了上百万次,在这一过程中不断改进,全靠自己学会了新的走棋策略。”DeepMind团队的一名研究人员戴维?希尔佛(DavidSilver)说道。
据希尔佛称,这种方法使AlphaGo在众多会下围棋的人工智能系统中脱颖而出,其中也包括Crazystone系统。然后研究人员将上一步得到的结果输入二级神经网络中。该网络使用一级网络建议的走棋方法,使用了很多相同的方法来预测每一步的结果。这和“深蓝”下象棋时的方法类似,只不过AlphaGo系统会边下边学,分析更多数据,而不是通过蛮力穷举法探索每种可能的结果。利用这种方法,AlphaGo不仅学会了如何打败现有的人工智能系统,还击败了顶级的人类棋手。
精密芯片
和大多数先进神经网络一样,DeepMind系统使用的机器也配备了图形处理器(GPU)。这些芯片最初是用来为游戏和其它对图形敏感的程序处理图像的,但研究人员发现,GPU也很适合用来开展深度学习。哈萨比斯表示,只需要用一台装配了大量GPU芯片的计算机,DeepMind就能够运行得很好。但在与樊麾对战时,研究人员使用了规模更大的计算机网,共装载了170枚GPU芯片和1200台标准处理器(CPU)。该系统在训练时和实际作战时,使用的都是这一大规模计算机网。
等AlphaGo前往韩国挑战世界冠军李世乭时,哈萨比斯的团队将使用同样的装置,不过他们会对其进行不断改进。这意味着,他们需要联网才能和李世乭作战。“我们正在铺设自己需要的网络光纤。”哈萨比斯说道。
据科隆和其他专家称,打败世界冠军李世乭比打败樊麾要难得多。但科隆对DeepMind团队寄予厚望。在过去的十年中,他一直在努力打造能击败世界顶级棋手的围棋系统,而他现在认为,这样的系统已经被研发出来了。“我现在买GPU买得不亦乐乎。”他说道。
更进一步
AlphaGo具有极其重要的意义。它采用的技术不仅能用于机器人和科研领域,从类似Siri的移动数码助手,到进行金融投资,这一技术在很多任务中都能助人一臂之力。“你可以用它来解决各种棘手的问题,处理任何需要用到策略的、类似于游戏的事情。”深度学习初创公司Skymind的创始人克里斯?尼克尔森(ChrisNicholson)说道,“比如战争或商业(金融)交易等。”
有些人对此感到有些担忧,尤其是当他们想到DeepMind系统是通过自学学会围棋的时候。该系统不仅仅是通过人类提供的数据来学习的,它还会产生自己的数据,做到自己教自己。就在前几个月,特斯拉创始人伊隆?马斯克和其他人纷纷表达了自己的担忧,认为这样的人工智能系统迟早会超越人类,并脱离我们的掌控。
但DeepMind系统还处在哈萨比斯等研究人员的严密控制之下。虽然他们正在使用该系统破解一款极为复杂的游戏,但游戏到底只是游戏而已。的确,要想媲美真正的人类智慧,AlphaGo还有很长的一段路要走,还远称不上超级智能。“眼下的情况非常规范,”人工智能法律教授、华盛顿大学的技术政策实验室创始人雷恩?卡罗(RyanCalo)说道,“该系统的理解能力并未真正达到人类的水平。”但该系统指明的方向的确如此。如果DeepMind的人工智能系统能理解围棋的玩法,也许它迟早会明白更多的东西。“会不会整个宇宙都仅仅是一盘巨大的围棋呢?”卡罗问道。(叶子)
相关专题谷歌人工智能破解围棋比赛专题标签:人工智能围棋大师
推荐阅读聚焦应用中心新浪公益新浪游戏新浪视频新浪科技小咖秀带你飙戏带你飞湖南卫视全网热播内容在手机中玩百变大咖秀正统续作全球狂热来袭击溃贱萌可爱的小怪物童话人物也能杀气爆棚一站式的生活服务平台发挥演技做最佳的主角总能发现你想听的音乐煎饼侠带您拯救不开心帮吧唧猫吃到美味的鱼领先同名电影抢先发布全中国最大的宠物社区用有趣的图案把脸遮住看看谁是白吃和冤大头十年辉煌体会梦想乐趣帮呆萌的小可爱闯关卡开始段美妙的糖果之旅沈阳遭遇六级重度雾霾2万大妈齐跳小苹果禁烟范冰冰传递社会正能量未富先老养老金吃紧益调查:慈善需立法么反虐待动物法制化呼声高涨如何看待广州拟奖拾金不昧环保部即将解决红顶中介明星婚礼上的“善”姿“百名春蕾之星”评选舞剧《画皮》关注孤独症女孩患尿毒症自筹药费互联网发展基金会成立林青霞为慈善参加节目全面实施城乡大病保险儿童安全座椅强制认证办养老院真的是机会么志愿者慰问抗战老兵战舰世界新浪特权礼包乱斗西游2暑假畅玩卡倩女幽魂2夏日特权卡功夫熊猫新手高级礼包梦幻西游2挑战特权卡狩龙战纪新浪白金礼包我是大主宰新浪荣耀礼包大话西游2免费版礼包天谕有约版测试礼包火瀑新浪战神宝箱完美国际2新浪血战卡西游降魔篇3D独家礼包古剑奇谭新浪独家礼包大战神新浪独家礼包热血传奇手机版大礼包NBA梦之队2公测豪华礼包魔域盛夏冰爽新手礼包星际传奇新浪独家礼包极限Girl美与野性结合让萌宠当一天司机亲千万不要手贱啊超级屌的视觉错觉运动地球上最美丽的天堂鸟新一代武林最萌小道士神奇的PS造钱术大开眼界的泡面新吃法让宝宝嘴馋的菠萝炒饭经典电影镜头神级剪辑亲手教你范爷经典妆容盘点全球最糟糕山寨品恶搞:当一骷髅在开车健身是把整容刀三分钟看尽十年成长和TFBOYS一起过暑假不用去医院的牙美白术一分钟识别面试潜台词Windows10升级秘籍净水器的水有多深?识趣毕业季户外特辑用户关注手机哪些功能有曰:国内外展会吐槽三十年经典Moto手机ChinaJoy2015大看点东芝虚增利润财务丑闻紫光集团收购美光科技诺基亚为未来电影造球全球APP开发创意大赛享说第四期主持人李晨猎豹靠近捕食熟睡疣猪非洲血腥动物标本加工相机拍泡腾片遇水冒泡冰岛令人窒息美景懒惰青蛙蜗牛背搭便车美摄影师拍奇怪毛毛虫人工智能打败主观投资量化投资如何保持竞争力且听五大头部量化私募现身说法…
原标题:人工智能打败主观投资?量化投资如何保持竞争力?且听五大头部量化私募现身说法…
近两年来,量化投资行业爆发式增长,一批私募规模突破百亿大关,备受市场关注。
科技的发展赋予投资更多工具选择,不少量化私募开始加大人工智能、机器学习方面的投入。与此同时,市场上也有许多疑问,诸如,在投资领域人工智能能否打败人类?量化投资如何保持持续的竞争优势?超额收益表现乏力如何破解?
在第六届中国金长江私募基金发展高峰论坛上,灵均投资首席投资官马志宇、诚奇资产创始人何文奇、茂源资本创始人郭学文、思勰投资创始合伙人吴家麒等四位大咖对上述话题进行了深入探讨,艾方资产CEO叶展担任圆桌论坛的主持人。
人工智能难以打败主观投资
叶展:随着技术的发展,阿尔法狗诞生以后,在围棋、象棋、德州扑克等领域,人工智能已经彻底打败了人类,在投资领域人工智能会打败人类吗?
马志宇:在新时代,量化投资有新的技术,但不能说打败人类或者主观投资,应该说各有所长。随着时间的发展,量化投资将展现更多优势。比如,当下A股股票数量已达4000多只,而且信息流动速度快、产生的数据量大,客观上要求我们用新的投资技术对股票信息进行定价,包括高频交易等。对于各种大数据的整合,并应用到人工智能会产生更好的效果。
何文奇:至少在投资领域,在可预见的未来,人工智能是不可能打败人类的。这个命题不是一个投资问题,是一个科学问题,还可能是一个哲学问题。人工智能是人做的,人工智能投资是人设计的投资方法,现在数据量那么大,光靠人的主观判断,难免受到个人能力的限制。使用人工智能技术,使用机器大量的统计和分析这样的大数据得出一定的结论,在中短期、中高频大量股票的投资上,人工智能是更有优势的。但是,人工智能还没有办法做一些大方向和大策略的判断。
郭学文:量化交易和主观交易各有优劣,量化交易像是检硬币,不断交易重复出现的“小机会”,机器处理数据快,在这方面有明显的优势。而越偏长期投资,就越像PE股权投资,数据量少,没办法通过数据分析找出规律,就更多要靠人为判断。
在成熟市场,量化交易占比不断提高,2000年的美国十大资产管理公司,做量化的只有两家,到去年时,做量化的已经有七八家了,估计未来十年中国市场也会发生类似的变化。随着投资标的越来越多,大的交易机会越来越少,量化投资的优势也会越来越大。
吴家麒:在我看来,人工智能也好,机器学习也好,只是量化交易的方法论之一,背后的核心还是看使用人的水平高低。我们做过一个统计,A股公募基金里有5年以上的历史业绩,平均超额收益超过15%的基金经理,不到20人,相比量化指数增强策略超额显然低了很多。但是这个就能说明量化投资的投资水平就比做主观来得好?我看也不一定,这个有特定的时间背景,一个方法论好坏的背后还是要看使用方法的人。
叶展:量化投资和人工智能,在某些领域是比人更具有优势的,特别是在处理大量标准化数据方面,会比人更具有效率和优势。但是,在一些高维度的复杂度很高的事情上,还没有达到人类的水平。所以不管是做量化的还是做主观的,都还有很好的发展空间。
人力、算力是量化投资核心竞争力
叶展:随着大量资金涌入量化私募,市场竞争亦在不断加剧,尤其是头部私募之间的比拼,纷纷展开军备竞赛。量化私募如何长期保持竞争优势?
马志宇:在这个行业里,最重要的还是人。要想取得优势,需要加大对投研方面的投入,包括数据、算力的投入,最重要的还是人才的投入。一般会招募两大类人才:
一是行业内的高级人才,重点是有海外对冲基金相关工作经验的,国内量化行业蓬勃发展,确实也提供了好的就业机会。希望招到海外有不同公司、不同背景的人才,吸取各家所长;
二是会招聘国内外的顶尖优秀毕业生,通过团队内部培训和训练,最终培养为公司的中坚力量。
何文奇:想在这样激烈变化的市场中持续保持竞争力,一是要对市场保持敬畏之心。有一本书叫《反原则》,里面提到唯一坚持的原则就是不停地改变,量化投资在国内处于快速发展阶段,有很多策略有效,也有很多策略失效,我们要有敬畏之心。二是要不停去研究,包括人力、算力。人力是很重要的,需要甄别和培训。在投资中,不停地在市场中改进自己的模型、策略和方法,才有可能持续获取收益、获取超额的回报。
郭学文:量化投资有一个特点,就是一个因子被发现时它就开始失效了,因子越好就失效越快,因为更多的资金会去按它来交易。因此,量化研究是没有止境的,必须对市场变化的节奏做出快速反应,也需要不断加大对团队的投入。实际上,与大家的感觉可能不同,量化交易是非常劳动密集型的产业,需要大量的研究员和IT技术投入,小团队是没有太多优势或生存能力的。
吴家麒:为什么要有这样巨大的人力投入?其实核心还是希望能够把整个策略不断去迭代,不断去优化,不断找到新的因子。主观投资更强调个人英雄主义,有非常牛的投资者。对于量化投资来说,则更多在强调集体主义,我们需要建一个非常好的团队,所以量化私募多集中在北京、上海、深圳等地方,因为这些地方最容易招到最优秀的人才。
坚定量化投资的信仰
叶展:最近几年量化发展很快,量化基金在私募基金里面占比达到15%。但是,去年开始,量化投资也遭遇了一些挑战,超额收益呈现增长乏力态势。对此,你们怎么看?
马志宇:尽管过去几年,量化投资规模在快速增长,但是,作为一种投资仍然有一定的周期性波动。美国市场也在2020年大幅波动、回撤明显。其次,量化投资的市场竞争在加剧,很多因子、信号逐渐在衰减,效率不断降低。在一个长期投资生涯里面,会不可避免的遭遇到大规模回撤。
首先在技术上应该有应对机制,及时排查回撤原因,到底是市场周期性原因,还是风控模型问题,还是因子信号失效了,做出针对性的应对,或调整模型,或针对性减仓。
其次,如果资管产品出现回撤,要及时和投资人做真诚的交流,透明地披露回撤原因,缓解投资人的焦虑。
第三,坚定对量化投资的信念。读西蒙斯传记可以知道,西蒙斯在投资历史上也遭遇过大幅回撤,越是在最困难时越要坚信方法论的信心,相信回撤能修复。
何文奇:金融市场本身是不可预测的,即使对于神话一样的文艺复兴基金和巴菲特,仍然可能出现问题,量化也有类似的情况。
一要加强风控,不能使回撤过大。
二是策略的控制,在不适应时先把规模控制住。
三是要加强研究。我们做的是基于科学的,无论从数据分析到统计方法,到最后的交易都是基于科学的,信念不仅仅是主观的信念,而且要相信数据以及数据分析的价值。
郭学文:去年上半年量化投资收益很好,导致大量市场资金流入,超出了市场整体策略水平的承载能力,不可避免地出现了后来的回撤。最近大家经常讲“抱团股”,其实量化策略不同的机构买的股票更接近,当一个基金出现赎回压力时,其它基金也都会出现净值下跌。这在一定程度上也会导致市场的优胜劣汰,使“投研能力与基金规模匹配”的管理人更有机会发展起来,形成长期的竞争优势。
吴家麒:对于量化交易来说,一个稳定的策略容纳的规模是比较小的,今年管理一两亿可以做的非常好,明年给了一二百亿,肯定有波动。其次要管理好投资人的预期,5%的回撤在主观投资里面可能都不算回撤,怎么到量化投资就认为是一个非常大的波动呢?
此外,量化投资的背后是计算机工程。而中国拥有最大的工程师红利,所以量化行业在中国会蓬勃发展。当量化策略遇到回撤时,我们可以很具体地定位到问题在哪,从而解决问题,这个就是量化的优势,可以在过去犯的错误上不断改进,避免错误的重复发生。这也是我们对量化投资有信仰的核心原因。
责任编辑:刘德宾