美国人工智能预测判案结果准确率高于70%,比法律专家更准
科技日报北京5月4日电,《科学》官网3日报道称,美国伊利诺伊理工大学科学家用一种被称为随机森林的机器学习统计模型,对1816年到2015年美国最高法院的判决进行预测,准确率高于70%,较知识渊博的法律专家(预测准确率为66%)更胜一筹。
用计算机算法预测法官行为并不稀奇。2011年,西班牙学者在一项研究中,使用1953年到2004年任意8名法官的投票,来预测同一案件中第9名法官的投票,准确率为83%;2004年,美国学者使用1994年以来一直在法院工作的9名法官的判决,来预测2002年案件的判决结果,准确率为75%。
而伊利诺伊大学理工学院法学教授丹尼尔·卡茨的团队利用最高法院数据库,为每个投票标注了16个特征,包括法官任期、诉讼发起法庭、口头辩论是否被听到等,创建了最先进的算法。
该模型先学习了1816年到2015年最高法院案例特征与裁决结果之间的关联,然后按年份研究每个案例的特征并预测裁决结果,最后被“投喂”关于该年份裁决结果实际信息的算法升级了预测策略,并继续进行下一年的预测。
结果显示,对于28000项判决结果及24万张法官投票,新模型算法预测的正确率分别为70.2%和71.9%。相关研究文章发表在《公共科学图书馆·综合》(PLOSONE)上。
报道称,律师最有可能率先将新算法付诸实践,他们可以将不同的变量插入模型,以获得想要的参考信息;投资者也可根据预测分析,对有较大获胜可能的公司投资;而上诉人则可以根据获胜几率判断是否再向最高法院提起诉讼。
(原标题:人工智能测官司输赢胜过专家)
人工智能犯罪:先行预防还是事后严惩
冀洋
◇刑法规定了多种生产不符合标准的产品的犯罪,只要责任主体仍然是人,人在设计人工智能产品过程中就仍然受到刑罚威慑效果的影响。然而,当AI致人损害而由其自负刑事责任时,人类的上述责任便被转移,为机器人研发者、使用者推卸责任提供了绝佳的借口。
◇以风险防控为由造就的人工智能犯罪主体,实际上加剧了源头风险;刑事责任体系表面上因新犯罪主体的加入而更严密,事实上宽纵了人类义务,得不偿失。
自然科学的发展不断影响着法学的思考对象与思考方式,人工智能技术的勃兴如今唤起了更多法律人的热情。在刑法领域,以“将机器人纳入刑事责任主体”为代表的研究自2018年以来呈现急速增长,其基本看法是:人工智能可与人类一样接受独立的处罚,并可承担删除数据、修改程序、永久销毁等刑罚种类(肯定论)。然而,承认人工智能的犯罪主体地位,将面临五大悖论。
第一,“技术失控—技术可控”之悖论。人工智能刑法研究的忧患意识来源于“人工智能的失控”:智能机器人将来具有辨认和控制能力,能够超越设计程序实施行为。然而,肯定论又提出了针对人工智能的专有刑罚种类,除了永久销毁或许可以仅通过蛮力完成之外,其余两种刑罚均只能借助于高超的计算机技术以改造人工智能的“大脑”。那么,这里的问题就很明显了:既然刑罚技术能够对人工智能的犯罪能力做出有效限制、能够通过这种先进技术刑罚将其框定在安全轨道,为何还会存在人工智能超脱人类控制的情形?上述刑罚设计表明的不正是人类可以实现对人工智能的控制?若此,人工智能就永远不会失控。若能够从数据程序上消灭人工智能的犯罪能力,为何人类不在研发阶段就做出这种技术干预?若没有这种技术,这种技术刑罚又有何用?肯定论既断言存在人工智能不可控的情况,又在刑罚上主张人工智能的运行程序能够被操纵,这存在先承认“技术设计失败”又承认“技术设计可靠”的悖论。
第二,“特殊预防无效—特殊预防有效”之悖论。肯定论主张赋予人工智能犯罪主体身份,是为了给予其一定的刑罚,从前述三种刑罚种类可以看出,他们最看重的刑罚目的不是报应、不是一般预防而是特殊预防:通过删除数据、修改程序等技术手段剥夺其实施犯罪行为的可能性;若人工智能无法被矫正,那么就可以直接永久消灭之。概言之,这完全属于李斯特式的预防论:矫正可以矫正的罪犯,不能矫正的罪犯不使为害。但是,智能机器的运行不像人类那样具有先天的、自然的行动力,它是通过精密的程序计算来实现的,因而一个可能的技术操作便是,直接在设计阶段对人工智能的“大脑”预设危险避免措施、消除犯罪条件。可为何要等到犯罪之后再介入?如果设计编程可以实现特殊预防,那么在研发过程中植入这样的控制程序才是最可靠的;如果人类没有这种编程,那么设定这种刑罚又有何用,在犯罪后修改数据也同样是不可实现的。因此,在“技术失控—技术可控”的悖论之后,肯定论在刑罚目的及其实现路径上面临又一悖论:以消除犯罪能力为目的,在能够采取特殊预防措施的情况下,故意不采取措施而坐等犯罪之后才大谈矫治之道。
第三,“刑罚设计—非刑罚性”之悖论。虽然刑罚能够实现报应功能和预防功能,但这些功能却并非刑罚所专属,具有上述功能的处罚措施并非都可以被称为刑罚,其他法律中的行政处分、民事赔偿等措施也分担着这些功能,如吊销营业许可证、吊销驾驶证、损害赔偿等。刑罚与行政处分、民事赔偿在本质上是完全不同的:刑罚的本质是从国家立场对犯罪进行的非难,行政处分是行政取缔上的保安处置,民事赔偿则是损失的公平分配。吊销证照、损害赔偿等都不是刑罚种类,即便这些措施被规定在刑法典中,它们也只能被称为“非刑罚措施”,如刑法第37条规定的“训诫、责令具结悔过、赔礼道歉、赔偿损失”“禁止从事相关职业”等。肯定论设计的删除数据等所谓的“刑罚种类”,在当前阶段甚至几百年前就是机器设备出现故障时的最普通的修理方式,通过删除拆解零部件、修改某项设计甚至直接将之报废,根本不需要什么法律甚至刑法上的正当化根据以及司法程序,而只需要一本“使用说明”“检修指南”而已。这无异于将刑法贬低为技术管理法甚至“机器维修手册”:能修就修,不能修就报废。
第四,“AI主体性—AI工具性”之悖论。人们本来是为了生活的便利化而研制AI,但赋予其刑事主体地位就等于必须承认其拥有一定的平等权利空间,那么就对人类权利的行使提出更多限制,这实际上为人类设立了一个新的竞争物种,结局是:人类必须时刻为保障人工智能的权利、为人工智能的健康运转而服务,这加重了个人生活负担,最终消解了前述便捷性。因此,不少肯定论者不承认AI与人类在法律面前平等。但法律的强大之处就在于将事实上的不平等以法律拟制的方式强行弥合,如果人类与AI在法律上都不平等,那么二者将在任何时空都不会平等,二者就不可能并存于某一法律主体系统内,而只能区分为“主体—工具”。此外,不少肯定论主张建构强制保险制度、建立赔偿基金等以弥补机器人造成的损害,可如果AI是法律主体,那么为何需要另一个主体(人类)为之缴纳保险费或基金?AI连独立的财产权都没有,其在致人损害时如何承担义务?最终而言,这些责任还是要被推到人类自身,这与当下的产品致损责任、汽车交强险制度并无不同。
第五,“消减风险(追求责任体系严密化)—加剧风险(转移人类责任)”之悖论。如果人类在制造这些机器人时设定的是“与人无害”模式,但在后期运行中机器人在编程外实施法益侵害行为,这难道不正表明人类的技术依然不成熟?人类为机器人设定的框架很容易被突破,继而在失控之后发生法益侵害,被非难对象难道不正是人类自己?如果我们把机器人的失控看作传统产品缺陷或管理过失等,即将责任归之于人类,则更有助于实现“风险防控”。例如,侵权责任法第41条有关产品缺陷责任规定实行无过错原则,民法正是以此升级对产品生产设计者的责任、降低产品缺陷及其损害风险。再如,刑法规定了多种生产不符合标准的产品犯罪,只要责任主体仍然是人类,人类在设计AI产品过程中就仍然受到刑罚威慑效果的影响,刑法在风险应对上仍有所作为。然而,当AI致人损害而由其自负刑事责任时,人类的上述责任便被转移,为机器人研发者、使用者推卸责任提供了绝佳的借口。当人类以“机器人已经有自我意识,其法益侵害行为与我无关”作为挡箭牌成功推卸掉法律责任时,如何期望他们严格控制人工智能研发风险、使用风险?只有将机器人失控之情形仍然作为产品缺陷范畴,才能够促进人类谨慎研制人工智能、不断提升人工智能技术,主动减少技术造福人类时的技术风险。如果研发者既能靠AI技术谋取利润,在发生侵权损害时又不用承担法律责任,他们内心不知得有多狂喜,被害人不知得有多倒霉。所以这里存在第五个悖论:以风险防控为由造就的“AI犯罪主体”,实际上加剧了源头风险;刑事责任体系表面上因新犯罪主体的加入而更严密,事实上宽纵了人类义务,得不偿失。
(作者为东南大学法学院讲师、法学博士)
现实版《少数派报告》让人工智能预测犯罪,没想象中那么完美
在斯皮尔伯格的经典科幻电影《少数派报告》中,未来的人们已经发明了能侦察人的脑电波的人工智能――“先知”。“先知”能侦察出人的犯罪企图,所以在罪犯犯罪之前,就已经被犯罪预防组织的警察逮捕并获刑。
看起来,这个系统让世界变得很完美:所有犯罪在发生之前就被制止,没有人会受到伤害。
但电影中,身为精英探员的主角,却突然被控“即将”谋杀一名他根本不认识的男子。这自然也就引发了我们思考一个问题:把裁决人们是否“有罪”的巨大权力交给人工智能,是否合适?这样的人工智能又能否保证百分百准确?
“预测犯罪”并不遥远
实际上,电影中的未来离我们并不遥远。
据报道,2002年,美国德拉瓦州威明顿市警方也做过“预言犯罪”的类似尝试,只不过他们没有用人工智能,而是人力。
他们派出便衣去大街上那些毒品交易频繁的地方,偷拍下经常在此出没的人的一举一动。然后警方搜集这些人物的资料,建立特别的警方资料库。尽管这些人中许多都还没有犯罪,但警方认为,他们犯罪的几率要比其它普通市民大得多。
2002年9月,英国加迪夫大学的科学家们也提出一种预言犯罪的构思——开发一种摄像机,它可以自动锁定人群中某个长时间站着不动的人,因为在熙熙攘攘的人流中,这么长时间站着多少有些“不寻常”。这种“鬼鬼祟祟”的行为,往往和预谋犯罪——比如抢劫、暗杀之类相关。
真正让AI出面则是在9·11事件后。在五角大楼的授意下,美国国防部高级研究计划局成立了一个由41名计算机专家、政策专家和政府官员组成的顾问小组。这些人曾数次讨论,是否有可能在保护个人隐私的前提下,对美国民众进行全方位电子监视,并用先进的数据搜索技术来预防潜在的恐怖袭击。
然后,一个名为“全面信息感知系统”(TIA)的构想诞生了。简单来说,所有美国人只要有数字技术的接触,都将会自动地处于这个系统的监视之下,如电子邮件、在线购物、旅行订票、ATM自动取款系统、移动电话、电子收费系统和信用卡支付终端等。
尽管其中所涉及的部分技术已经使用多年,但这个工程依然十分浩大。这一项目的初期投资为1000万美元,但有专家估计,3年后它的总造价将达到2.4亿美元。此外,TIA系统不出意外地遭到了上至美国国会下至民权组织的广泛非议。
目前,国外非常多的国家已经开始使用犯罪预测系统。据美国官方公开的数据,仅仅只是美国最少20个以上城市、1000个以上执法人员正在使用预测性警务系统。
报道称,美国孟菲斯市警察局启用BlueCRUSH预测型分析系统后,过去五年暴力犯罪率大幅下降。
美国马里兰州和宾夕法尼亚州也开始启用一种能极大降低凶杀犯罪率的犯罪预测软件,因为其能预测罪犯假释或者缓刑期间的犯罪可能性,这款软件还成为了法庭假释条款和审判的参考依据。
专家称预测犯罪“毫无用处”
尽管前景听起来很美好,但“预测犯罪”的准确性和有效性仍有待商榷。
近日,就有人工智能领域的知名专家说,预测性的监管工具不仅“毫无用处”,而且容易大大夸大暴力犯罪的可能性。
在本月早些时候发表的一封信中,来自麻省理工学院、哈佛大学、普林斯顿大学、纽约大学、加州大学伯克利分校和哥伦比亚大学的专家们就这一问题发表了看法,他们对这项技术的怀疑态度达到了前所未有的程度。
人工智能专家切尔西•巴拉巴斯(ChelseaBarabas)、卡蒂克•迪纳卡尔(KarthikDinakar)和科林•多伊尔(ColinDoyle)在《纽约时报》(NewYorkTimes)的一篇专栏文章中写道:“在预测暴力时,风险评估提供的是更神奇的思维,而不是有用的预测。”
预测性警务工具,或风险评估工具,是用来预测某人未来犯罪可能性的算法。
根据美国国家司法研究所(NationalInstituteofJustice)的数据,预测性警务是:“(利用)信息、地理空间技术和基于证据的干预模式的力量,以减少犯罪和改善公共安全。”
随着人工智能的迅速发展,这些工具已经开始进入法官和警察部门的日常程序,法官利用它们来决定该如何判决,警察部门则利用它们来分配资源等等。
它也被用来评估面临审判的人再次犯罪的可能性,以及他们是否应该被拘留。
其中,法官最常用的工具之一被称为公共安全评估(PSA),它和其他许多工具一样,根据犯罪历史和个人特征来计算。
根据计算结果,该工具可能会将一个人标记为“新的暴力犯罪活动”的候选者。
尽管该技术被定位为先发制人打击犯罪的一种方式,但专家表示,它的能力被大大夸大了。
研究人员写道,在预测未来的暴力事件时,算法风险评估被吹捧为比法官更客观、更准确。
“从政治角度看,这些工具已经成为保释改革的宠儿。但他们的成功建立在这样的希望之上:风险评估可以成为纠正法官错误直觉的宝贵途径。”
AI可能会造成“冤案”
专家们反对这种预测犯罪算法的理由之一是对其准确性的疑虑。
专家表示,这些工具往往高估了被指控者的暴力风险,而事实上,审判期间犯罪的可能性很小。
据报道,华盛顿特区94%的犯罪嫌疑人被释放,其中只有2%的人随后因暴力犯罪被捕。然而研究人员指出,在各州,有30%等待审判的人被拘留的情况并不罕见,这种比例的悬殊显然揭示了一个“过度监禁”的问题。
研究人员写道,(这些工具)给法官提供的建议让未来的暴力事件看起来比实际情况更可预测、更确定。但在这个过程中,使用这种AI风险评估工具可能会持续性地导致大规模监禁情况的出现,并让人们产生误解和恐惧。
专家们说:“如果这项技术真正准确,它应该能预测出几乎所有人都处于零风险状态,因为统计上的可能性很低。相反,PSA牺牲了准确性,只是为了在暴力可能性低、不确定或无法计算的人群中区分出有问题的人。”
而以此前提到的意在辨别恐怖分子的TIA系统为例,假设这个预言系统的准确性能达到99%,那么它理论上就能预言出恐怖分子群体中99%的未来罪犯,同时也会在无辜群众中错误将1%的人判定为未来恐怖分子。
假设在全美国3亿人口中有1000人是真正的“未来恐怖分子”,而剩下的299999000人都是清白的,那么理论上会有2999990人被错误地列入恐怖分子的行列。也就是说,这个系统将会逮捕将近300万无辜的人——几乎是那些真正罪犯人数的3000倍。
AI到底如何判定人“有罪”?
人工智能究竟如何预测犯罪?其实,其判断依据跟人类警察也大致相同。
富有多年工作经验的警察们往往能总结出自己的一套辨别犯罪分子的依据,而破案时警察们也经常需要一些基本经验判断,如什么区域、时间容易犯罪率高发,什么人物更有可能犯罪等。
这些归纳性的判断有其意义,但对于某个特定个体而言,用类似分析去判定其“有罪”显然对其不公平。
此外,算法的设计者也可能在算法中无意加入了自己的偏见,而机器学习算法的黑盒子属性让其设计者也不能肯定其判定逻辑是什么。
1980年代,美国军方使用机器学习算法训练机器分辨美苏两国的坦克,但后来却发现计算机并未真正认出两国坦克的设计不同,而是把像素更高的图片当作“美国坦克”,因为训练使用的资料中俄罗斯坦克的照片更模糊。
“新技术有为善和作恶的潜在力量。如果你的假设没有被仔细考证,那么机器学习技术只会带来更多的不公平和加速现有的不平等。”普林斯顿大学法学系教授AlexanderT.Todorov表示。
为了更好地预防犯罪,在近日对人工智能学家的采访中,研究人员建议减少对算法的依赖,将资源投入到更全面的措施中。
文章写道,政策解决方案不能局限于锁定“正确的”人。他们必须通过更广泛的社会政策和社区投资来解决公共安全问题。