博舍

人工智能的历史、现状和未来 人工智能驱动力包括哪些

人工智能的历史、现状和未来

2018年2月25日,在平昌冬奥会闭幕式“北京8分钟”表演中,由沈阳新松机器人自动化股份有限公司研发的智能移动机器人与轮滑演员进行表演。新华社记者李钢/摄

2018年5月3日,中国科学院发布国内首款云端人工智能芯片,理论峰值速度达每秒128万亿次定点运算,达到世界先进水平。新华社记者金立旺/摄

2017年10月,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,机器人索菲亚被授予沙特公民身份,她也因此成为全球首个获得公民身份的机器人。图为2018年7月10日,在香港会展中心,机器人索菲亚亮相主舞台。ISAACLAWRENCE/视觉中国

2018年11月22日,在“伟大的变革——庆祝改革开放40周年大型展览”上,第三代国产骨科手术机器人“天玑”正在模拟做手术,它是国际上首个适应症覆盖脊柱全节段和骨盆髋臼手术的骨科机器人,性能指标达到国际领先水平。麦田/视觉中国

如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。

概念与历程

了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。

人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。

人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:

一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。

二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。

三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。

四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。

五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。

六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。

现状与影响

对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。

专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。

通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。

人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。

创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。

人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。

趋势与展望

经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?

从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。

从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。

从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。

人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。

人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。

人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。

人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。

人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。

态势与思考

当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。

高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。

态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。

差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。

前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。

当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。

树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。

重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。

构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。

推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。

作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士

算法决策:人工智能驱动的公共决策及其风险*

【内容提要】作为一种自主算法决策,人工智能技术已经渗透到公共决策过程的各个环节,使公共决策模式产生重大变革。本文基于公共政策循环理论的视角,提出了一个人工智能算法对公共政策的问题界定与议程设置、政策制定、政策执行和政策评估四个阶段的影响与应用的分析框架,指出人工智能算法通过其大数据处理能力和预测分析能力,对提高公共决策的科学性、精准性和有效性发挥了巨大的作用。与此同时,人工智能算法存在的算法偏见、预测偏差和算法“黑箱”等问题可能引发公共决策失灵和合法性危机。最后,本文还提出,为了合理利用人工智能技术提高公共决策的有效性,规避算法决策的风险,决策者应关注人工智能算法决策与人类常规性决策的应用范围、适用性以及两者之间的互补协调关系,同时在算法驱动的公共决策各个环节中加强公共参与,建立参与式算法决策框架。【关键词】人工智能,算法决策,公共决策,风险与挑战

一、引言 

人工智能(artificialintelligence,AI)是计算机科学的一个分支,其目的是开发一种具有智能行为的机器,实现在没有明确编程命令的情况下,使计算机自主采取行动。机器学习和大数据是人工智能的两大核心要素。机器学习是人工智能的大脑,是支持人工智能的基础算法;大数据则是实现人工智能算法运算的基础原料。机器学习基于算法来解析和训练数据,进行学习,从现实世界中识别模式,发现趋势,作出预测和决策,并在此基础上执行特定任务。算法就是对解题方案的准确而完整的描述,是一系列解决问题的清晰指令。算法代表着用系统的方法描述、解决问题的策略机制,对一定规范的输入,在有限时间内获得所要求的输出。从本质上说,人工智能就是一种基于算法的自主决策系统。以大数据为基础的,以机器学习及深度学习算法为核心的人工智能自主决策系统被称为算法决策(Zouridis,vanEck&Bovens,2020)。

决策是行政行为的核心。一方面,随着人工智能的兴起,人工智能对公共决策系统中的官僚与专家决策等常规决策模式起到了重塑作用。目前,国内外学者对大数据驱动的公共决策优化研究较为丰富,如大数据影响“公共决策循环”的模型化研究(Höchtl,Parycek&Schöllhammer,2016),大数据驱动的议程设置信息化、备择方案讨论全民化、决策执行自动化、决策评估实时化以及全过程跨领域综合集成化等五个方面的公共决策创新研究等(陈一帆、胡象明,2019)。但是,人工智能算法对公共决策过程和环节如何发挥影响,影响机制是什么等问题尚未在理论和实证层面上得到充分回答。另一方面,算法决策的风险问题也引起越来越多的警惕和探讨。部分学者对人工智能应用于公共决策持谨慎态度,认为人工智能算法的内在缺陷及其不当使用,如算法偏差、算法错误、算法歧视、算法“黑箱”、审查难等问题(Osoba&Welser,2017;Chiao,2019),将产生严峻的行政伦理问题,如人工智能对决策公平、公正、透明性和可问责性的挑战,侵犯公民信息隐私权,加剧社会不平等(于文轩,2017)。然而,这些探讨较少分析人工智能算法决策在公共决策过程中产生的风险的具体形式及其来源。

借鉴大数据驱动的公共决策循环模型(Höchtl,Parycek&Schöllhammer,2016),以及人工智能对政府与公共政策影响的最新研究(Valle-Cruzetal.,2019),本文首先基于政策学者对政策过程经典的四个阶段划分(Dunn,2015),发展一个人工智能算法在公共决策领域中应用形态与作用机制的分析框架,呈现人工智能对公共决策各阶段与过程的深刻影响。其次,本文将对公共决策各个阶段的算法决策风险及其来源问题进行探讨。最后,本文还将讨论如何平衡人工智能算法决策与常规决策之间的关系,阐述这两类决策机制的适用范围和互补关系,并对提高算法决策的公众参与性,规避算法决策的风险提出若干政策建议。

二、人工智能驱动的公共决策:一个分析框架

人工智能在公共决策中巨大的应用潜力源于人工智能的两大基本能力。第一,人工智能的大数据生成和处理功能为公共决策提供了丰富的决策信息。信息是决策的基石,在决策的全过程中发挥至关重要的影响。在充斥着复杂性和不确定性的决策环境下,海量的信息充斥在各个领域和活动中。然而,信息规模越大,信息的结构性就越差。相当大比例的数据呈现非结构形态,如图像数据、自然语言数据、文本数据、语音视频数据等。据国际数据公司(InternationalDataCorporation,IDC)的预测,2018年到2025年之间,全球产生的数据量将会从33泽字节(ZB)增长到175泽字节,其中超过80%的数据都是处理难度较大的非结构化数据。①然而,人类的思维能力和运算速度十分有限,在搜集和处理海量非结构化数据时存在着成本高、速度低和准确率低的劣势。非结构化数据需转化为计算机可以处理的结构化数据才会方便决策者进一步分析。人工智能的机器学习与深度学习方法凭借文本挖掘、知识库自动构建、图像视频识别与生成、自然语言处理等技术,快速、便捷且大规模地将非结构化数据转化为结构化数据。例如,对于语言形式多样而意义模糊的自然语言数据,人工智能可以减少文本的模糊性,识别不同的词汇,连接语言中的逻辑,解读语言的背景知识,对语言与文本进行标记和分类。当前,人工智能可以快速地阅读海量的政策文本,并对政策内容进行分类(Rice&Christopher,2021)。人工智能的图像识别技术通过抽取识别图像的各种特征,帮助网站运营商和政府网络监管部门对视频和图片进行质量、版权、涉恐涉黄鉴别和标记。

第二,人工智能机器学习算法的预测分析能力为公共决策提供直接的支持。人工智能使用算法来分析数据,并从中学习,从而对现实世界中的事件作出决策和预测。由人工智能算法驱动的决策基于大数据和高纬数据筛选预测因子,建构非线性和高度交互的预测模型,非常准确地预测了高度复杂的现象与数据间的关系(Mullainathan&Spiess,2017)。人工智能算法决策在提升预测的精确性上具有人脑判断、专家预测和传统统计模型无法比拟的优势。首先,由于人脑获取和处理信息能力的局限、非理性的偏见和情感因素的影响,人脑的预测效果远不及统计模型(Grove&Meehl,1996),而传统的统计模型无法应对现实世界的变量间复杂而模糊的关系与模式,难以准确地还原真实的数据生成过程,以因果推断为目标的传统统计模型的预测能力十分有限。与传统统计模型不同,人工智能算法主要关注的是预测的准确性,允许数据自己决定变量的拟合过程,从而尽可能精确地拟合实际的数据点,随着模型拟合的准确性的提高,人工智能算法的预测能力也就越强。人工智能算法凭借其优越的预测分析能力为公共决策提供了强大的智能支持。

21世纪,特别是2010年以来,人工智能对公共决策的介入呈现一个由浅到深,由边缘到核心的过程。人工智能最初对公共决策的影响主要集中在简化政府一线服务部门工作流程,改善市民服务和提高机构办事效率方面,如自动回答市民问题,辅助工作人员填写和搜索文档,对顾客需求进行分类和选择服务路径,翻译和起草文件等(Mehr,2017)。一项研究表明,人工智能的自动化能力可以帮助工作人员在执行记录信息、处理文档表格等基本行政任务时节省30%的时间(Viechnicki&Eggers,2017)。随着政府活动对人工智能算法开放度越来越高,人工智能算法也开始介入公共决策的核心环节,如政策制定、执行与评估环节,并且参与到政府的一些核心公共服务与决策领域,如公共交通、医疗、教育、环境、公共安全与社会福利领域。算法驱动的公共决策的典型案例包括美国沃森人工智能(WatsonAI)辅助医疗诊断,中国杭州和新加坡等地城市智慧交通信号灯与拥堵预警系统,美国洛杉矶等地实施的人工智能犯罪区域风险预测和火警检测系统等(Berryhilletal.,2019)。在这一阶段,算法决策的任务不仅仅是简化行政流程,处理程序性和重复性任务这些简单的行政工作,而且是充分发挥人工智能的大数据处理和分析预测能力,提高公共服务的效率、质量和精准性,创新公共服务的供给,甚至决定资源配置和权利分配这些公共决策的核心问题。

那么人工智能的大数据处理与预测分析能力如何与公共决策相结合,为公共决策系统提供支持呢?本文发展了一个人工智能驱动公共决策过程的分析框架,呈现人工智能对政府公共决策各个阶段的深刻影响。为了便于简洁地理解复杂的公共政策系统和决策过程,政策学者把政策过程划分为四个相互联系的阶段:政策问题界定与议程设置、政策方案设计与政策制定、政策执行,以及政策评估。笔者将逐一探讨在公共决策的四个阶段中,人工智能的两大功能如何发挥作用(见图1)。表1概括了人工智能的大数据处理和预测分析在决策四个阶段中的具体实践形态及其影响。

(一)人工智能、政策问题界定及议程设定

政策问题界定和议程设定是公共决策过程的起点,公共决策首先要确定政策应该优先解决哪些问题?对政策议程设定的研究主要关注两类问题:一是社会问题的性质是什么,政府干预这一问题的必要性何在,即问题界定。问题界定在议程设定过程中发挥着特殊作用,社会问题能否进入议程在很大程度上取决于问题如何被社会认知和建构,如问题产生的结果是好的还是坏的,问题的重要性程度如何,以及问题是否有解决的方案(Baumgartner&Jones,2015)。二是在大量社会问题中,哪些问题被决策者所关注,这些问题如何进入政策议程,即政策议程设置。政府内外的行动者总是寻求以各种手段来影响问题界定和议程设定过程。传统上,除了政府决策者外,新闻媒体的传播,专家学者的决策咨询和利益集团的游说活动等都是影响政策议程的重要手段(Kingdon,1995)。议程设定过程的核心是如何使政策问题从公共议程上升到决策者注意力范围内,并进入正式政策议程。现有研究发现,有多种模式推动了政策问题进入决策议程(Howlett&Ramesh,2003):第一种是外部倡议模式,即社会力量通过动员公众支持推动政府关注某一政策问题;第二种是内部倡议模式,指的是决策相关者不用公众支持而影响议程,如利益集团独立动员某些社会群体直接影响政府决策;第三种模式是支持动员模式,是没有公众参与的决策议程初步确定后,政府再动员公众支持该项政策问题;第四种模式是整合模式,即当一项政策问题已经获得公众的广泛支持和共识后,政府再顺应民意推动议程建立。在大数据时代,人工智能是影响问题界定和塑造议程设定模式的重要手段,通过不同于传统的媒体、利益团体和专家行为的方式发挥影响。

首先,人工智能的大数据处理能力是政府内外各类行动者界定问题的重要工具或平台。在大数据时代,微博、微信、推特和脸书等在线社交工具成为重要的线上公共问题讨论和决策参与平台,社交媒体大数据作为重要的公共舆论形态,是决策者获取信息和议程设置的重要来源。一方面,政府决策者在设置政策议程时越来越重视网络大数据和在线公共舆论。当一项公共问题引发热议或舆论风暴时,决策者可以利用人工智能技术,如自然语言处理、文本情感分析、数据挖掘和图形识别等分析事件或问题引发的舆论动向,如舆论内容、舆论情绪及其变化趋势与传播途径等,从而有助于决策者掌握事件或问题成因,对其可能产生的政治社会后果进行精准识别,决定是否将该事件纳入政策议程。在这种意义上,人工智能算法可以有效地实现议程设定的外部动员,使得某些政策问题可以快捷地进入政策议程。另一方面,决策者面临的问题信息高度庞杂,而决策者在注意力、认知能力和信息处理能力方面存在局限性(Workman,Jones&Jochim,2009),某些社会问题的利益相关者倾向于利用人工智能技术搜集和处理有利于自身利益的数据,特别是社交媒体数据,随后对这些数据进行结构化处理,将结构化数据传递给政府决策者。因此,人工智能的大数据处理能力助力议程设定的内部动员,有助于某些利益团体所偏好的政策问题引起决策者的注意力,从而推动这些问题进入决策议程。

其次,决定决策者是否把某项问题纳入政策议程的一个重要考虑是问题自身的性质,对于那些过度复杂、成因未明,或者现阶段缺乏解决方法的问题,决策者很难将其纳入决策议程(Anderson,2003)。人工智能的预测分析能力,可以帮助决策者预测问题的发生概率、复杂性或严重程度,或者分析问题的成因、后果以及解决思路,从而辅助决策者判断哪些问题可以成为政策问题。在议程设置阶段,人工智能的预测分析能力得到较为普遍的应用。在经济领域,政府利用人工智能技术进行未来年度的经济预测,为中长期经济政策的制定提供基础。在公共卫生领域,“谷歌流感趋势”通过分析以“流感检测”为关键词的几十亿次搜索记录来预测流感发病率,在初期预测的准确率很高,辅助疾控部门决定是否启动流感紧急应对程序(Butler,2013)。在公共安全领域,政府部门通过对社交媒体的大数据分析和处理,判断抗议、骚乱等危机爆发与蔓延的趋势,从而提前采取维护秩序和防止冲突升级的政策措施(Leetaru,2011)。

(二)人工智能与政策制定

政策备选方案的提出和选择是公共决策的关键步骤,特别是政策方案的抉择也被称为最典型的决策过程。根据理性主义政策分析模式,政策制定过程需要首先明确政策目的,继而理性地分析备选方案,同时政府部门通过使用各类知识、技术和工具完善方案设计,然后陈述各个政策方案,按照标准对方案效果进行评估和预测,最后对方案进行选择(韦默、瓦伊宁,2013)。在现代社会中,政策方案是否被接受取决于多种因素,其中两个基本因素尤为受到关注:一是方案的合法性和政治支持,被公众特别是目标群体广泛接受的政策方案无疑具有更高的合法性;二是政策方案的技术可行性和实施效果的可预期性。

在方案设计和制定环节,政策制定者需要借助各种倡议活动,利用专家知识、技术工具,特别是信息收集和处理技术使得方案具备合法性和满足绩效条件。整个政策方案的设计和选择过程都是建立在信息处理的基础上,人工智能算法凭借其信息处理和预测分析能力,在政策方案设计和制定环节中发挥着显著的作用。首先,人工智能可以推动对备选方案进行充分的公众选择和讨论,从而有助于优化备选方案的质量,并且使方案获得广泛的公众支持,为政策执行创造良好的环境。人工智能的自然语言处理等技术可以对互联网,特别是新兴社交媒体上公众关于政策方案的建议、评论、留言等非结构化数据进行深入的文本挖掘和情感分析,从而确定这些数据的特征趋势,识别其中的不同政策偏好(Kamateri,2015:71-77)。其次,人工智能模型的强大预测能力可以精准预测各个政策方案的实施效果,为方案的选择提供依据。在政策方案选择的传统成本收益分析框架中,人工智能算法可以预测政策的成本和收益,从而指导政策方案的选择。在医疗政策领域,人工智能算法被用于预测个体潜在的疾病风险及医疗成本,并基于预测结果指导医疗政策重点干预那些具有较高患病风险的对象,以及治疗成本更高的病人。这不仅可以使得有限的医疗、护理资源得到合理配置,而且能够控制医疗费用的增长。在预测政策成本前,决策者还需要识别政策目标群体,例如要预测某项税收优惠政策的成本,那么必须先预测这项政策所涉及的目标群体数量,从而计算税收优惠可能导致的减税总额。在美国十分流行的人工智能算法辅助司法决策中,对于犯罪嫌疑人的处理有不同的政策方案:关押等待审讯、取保候审以及直接入狱。使用人工智能算法,根据既有的犯罪数据,基于犯罪嫌疑人特质、案件信息等相关特征,预测他们再次犯罪的概率,从而决定他们是入狱还是被取保候审(Kleinbergetal.,2017)。 

(三)人工智能与政策执行

无论是强调明确政策目标和决策者控制能力的自上而下的模式,还是强调决策执行部门自由裁量权以及上级决策者与政策执行部门上下协调互动的自下而上的模式,政策执行最核心的症结就是信息不对称问题。执行者比政策制定者,政策目标群体比执行者具有信息优势,他们很容易消极执行政策或者规避政策,决策者及时而充分地获取政策执行信息,就能有效地对执行过程进行监督或协调。人工智能算法能够为执行过程提供实时而充足的执行信息,缓解因信息偏差和不对称而导致的执行偏差和梗阻问题。在政策执行环节,人工智能基于其预测分析和大数据处理能力对目标主体与执行方案进行精准选择(Höchtl,Parycek&Schöllhammer,2016)。

第一,人工智能的大数据处理能力使得决策者获取和处理政策执行信息的能力有了巨大的提升。人工智能可以实时获取海量的政策执行数据,并对非结构化数据进行结构化处理,从而把结构化数据迅速传输给决策者和政策执行部门。在交通和社会治安领域,基于人工智能的摄像与人脸识别系统可以实时传输人车流量和道路交通拥堵状况、街道人群密集程度和可疑人物等信息。在新冠疫情防控战役中,口罩佩戴识别、自动测温、防疫健康信息码等基于人工智能算法的疫情防控系统被广泛使用,使得疫情防控部门可以第一时间获取中高风险对象的特征、行程及其密切接触对象等信息。

第二,人工智能的预测分析能力可以辅助决策者识别政策执行的目标主体、重点对象和执行方案,提高执行的自动化程度。在政策执行过程中,哪些目标群体是政策执行的主要目标,执行过程中哪些环节或领域可能出现问题,针对不同的问题,哪些执行工具和方案更为有效,这些问题都是决定政策执行成败的关键。人工智能基于对执行中信息的分析,能够精准地预测哪些执行问题会出现,出现的概率是多少,或者根据个体的社会经济特征和行为模式精准识别政策的目标群体及其行为,从而可以显著提高执行的精准性和成功率。在交通领域,人工智能系统可以根据街头实时反馈的路况数据,预测道路拥堵程度,从而自动变换红绿灯,减轻交通拥堵程度,减少行人车辆等待时间。

(四)人工智能与政策评估

      政策评估是政策执行中的动态信息或执行完成后对绩效与结果的评价和反馈活动。在公共决策环节中,对政策绩效进行评估一直是一个难题,主要的障碍是政策绩效信息难以测量或难以搜集和处理,而且缺少科学准确的评估方法。此外,政策评估也是一个政治行为,某些部门为了避免被追究责任,保持组织稳定而刻意使政策目标模糊而难以测量,使得政策评估流于形式(Hood,2002)。在大数据时代,人工智能算法可以有效缓解由于信息短缺、监控无力以及部门利益等因素导致的政策评估难题。人工智能可以广泛用于对于政策执行实时数据的反馈和政策执行效果的监控与预测,在解决绩效信息获取和测量难题方面上具有独特的优势。一方面,人工智能的大数据处理能力将帮助决策者第一时间获取政策执行的实时数据,实现持续的政策评估。人工智能对执行系统的反馈数据、外部的新闻报道、社交媒体等数据的挖掘,可以帮助决策者迅速发现政策执行走样现象,监测到官员的违规行为或执行目标的违背政策行为,极大地促进了对政策实施效果进行实时评估。另一方面,决策者利用人工智能算法对政策实施效果进行精准预测,政策实施后把人工智能的预测结果和实际结果进行比较,评估政策预测结果的实现程度。在教育领域,美国华盛顿哥伦比亚特区利用教师绩效评估系统(IMPACT),基于教师教学技巧、行为管理和学生成绩的9个绩效指标,利用人工智能算法预测和评估教师工作绩效并进行打分(Cameron,2017)。

      尽管对政策过程四个阶段的划分和论述有助于启发我们理解政策过程的基本面貌和要素,但是实际的政策过程中各个环节都呈现交叉融合、高度互动和循环往复的特征(Sabatier,1999)。首先,政策执行与政策评估相互融合交织,执行过程中决策者时刻关注政策效果,对政策实施情况进行实时监督与评估。其次,政策执行、政策评估与政策制定环节也密不可分,决策者通过对政策执行的监控和对政策效果的评估,不间断地调整和改变政策目标和政策方案,对政策方案进行再制定。最后,政策方案制定环节与政策议程设置环节也是循环往复、来回互动的,政策方案的设计、政策工具的选择在很大程度上取决于政策问题的界定和利益相关方对议程设置的影响,当问题界定发生变化时,政策方案也会被重新设计。由于现实政策过程具有非线性的来回往复、互动互构属性,算法驱动的公共决策过程也呈现上述特征。一些政府部门利用人工智能技术对包括社交媒体在内的互联网使用者发帖和评论大数据的搜集和处理,可以第一时间评判政策执行过程中公众的意见和反馈的问题,为决策者调整政策或执行方式提供支持,这一过程就包含了政策执行、评估和政策再制定等内容。我国部分省份扶贫与农业资金管理的“互联网+监察”平台通过对资金直接发放的数据进行脱敏和分类处理后,在数据平台上统一公布,最大限度地对社会公开,公众可以直接在平台上查询自己和他人的补贴信息,对于不恰当或违法的资金使用情况进行投诉和举报(邬彬、肖汉宇,2020),这个人工智能算法平台同时实现了政策执行监控和政策效果评估的目的。

三、人工智能算法决策的风险

      尽管人工智能算法决策极大地提高了公共决策的技术理性,然而,现实中人工智能算法并不完美,存在着算法偏差、偏见和不透明等风险,对公共决策循环的各阶段都可能带来不同程度的威胁,对公共决策的公正、公开等公共价值产生潜在的危害,从而导致不可忽视的政治社会问题。

(一)问题界定与政策议程设置阶段的算法风险

在这一阶段,人工智能引发的决策风险主要体现为数据自身的偏差以及人为操纵问题引发的预测失败和偏误,由此导致问题界定与政策议程设置的偏离与错误。人工智能算法的大数据处理和预测分析技术都强烈依赖历史训练数据的特征和模式,历史数据的偏差和偏见很可能导致人工智能数据处理和预测分析结果的偏误。在问题界定时,决策者利用人工智能处理相关数据,分析并预测问题的形式及其成因,然而即使是大数据也未必能反映数据的全貌,大数据的代表性有时反而不如抽样数据。特别是当前的人工智能使用的大数据多是来源于包括社交媒体在内的互联网和传统新闻媒体,这些数据背后的用户分布不具有人口统计学上的代表性,利用这些大数据做出的问题界定和公众态度分析很可能是不真实的。更严重的是,部分社交媒体的公众态度与意见也是不稳定的,很容易受到一些突发事件、媒体倾向性报告的影响,或者受到部分意见领袖舆论操纵与网络事件的积极参与者策略性发声的干扰,这时经过人工智能分析后进行的问题界定和提出的政策议题很可能偏离真实的公众偏好,甚至反映的是部分人群和特殊利益集团的偏好。其中一个典型的现象是网络上假新闻和煽动性信息的泛滥,不仅加剧了社会分裂与政治冲突,而且容易操纵公众态度,误导政府决策行为。②

(二)政策方案设计与决策阶段的算法风险

在政策方案设计与决策阶段,人工智能算法决策的主要风险表现为两个方面:一是政策方案受人为舆论操纵而形成虚假支持,导致政策方案“劣币驱逐良币”;二是人工智能算法预测的巨大偏差导致政策方案失败引发的政治社会风险。首先,政策方案设计阶段同样可能出现虚假公共舆论或公众舆论被人为操纵的问题。一些政治团体、极端组织或者特殊利益团队可能利用人工智能技术自动生成虚假或欺骗性信息,传播极端仇视性言论攻击不利于其自身的政策方案,或竭力鼓吹符合自身利益的政策方案,进而诱导公众舆论导向,推动或阻止立法通过某些政策方案。③其次,人工智能对政策方案成本收益与政策实施效果的预评估也很可能出现偏差。一些人工智能算法基于陈旧的数据,或者有偏误的历史数据,提出的政策方案本身就是有偏差的,或者只适用于特定场景和国情下的政策问题,面临新政策环境时很可能无法产生作用。在人工智能医疗领域,沃森肿瘤人工智能治疗方案就受到很多非议,批评者认为沃森肿瘤人工智能诊疗主要是基于医学期刊文章和专家提出的虚拟案例建立预测模型,训练数据中很少有现实的肿瘤诊疗病例,这就导致沃森肿瘤人工智能系统很可能无法给出准确的方案,甚至给出的治疗建议与标准化的治疗指南相冲突(Ross&Swetlitzi,2017)。

(三)政策执行阶段的算法风险

在政策执行环节,人工智能算法决策的风险主要体现在由于存在算法偏差和“黑箱”问题而产生的执行偏差与失败,引发公共政策合法性危机。尽管人工智能算法通过不断改进数据质量,调整模型参数和更换更高级的算法能够提高预测的准确率,但是预测误差和失误总是难免,没有一个算法的预测准确率是100%。如果输入模型的数据本身有着系统性偏差,那么就会给模型预测结果带来极大的偏误。在政策执行过程中,有偏误的人工智能系统可能会对政策目标群体识别失败,产生假阳性和假阴性两类误差问题。假阳性误差使得执行者把不符合政策特征的错误对象当作正确对象处理,导致政策执行成本上升或政策资源的浪费。假阴性误差则会把正确的政策对象排除在外,导致政策执行严重扭曲甚至失败。人工智能导致在政策执行中产生假阴性误差并不少见。在卫生领域,从2009年到2018年,英国国家健康系统的乳腺癌筛查调度软件出现预测误差,导致约45万名68岁到71岁的女性失去了最后一次进行乳腺癌检查的机会,其结果可能致使135人到270人提前死亡(Charette,2018)。 

      算法决策的“黑箱”和不透明特征使得政策执行缺少透明性和参与性,损害了政策执行的合法性。政策执行具有合法性的前提除了政策的有效性外,另外一个重要原则是保证过程的公开公平和民主参与。在官僚体制的技术理性主导下,政策执行的透明性和参与性已经遭到很大的削弱。然而人工智能算法的“黑箱”特征使得算法决策面临更加显著的决策不透明、责任不清晰、问责难度大的困境。首先,复杂精巧的人工智能算法本身就是一个“黑箱”(Burrell,2016)。尽管使用者知道算法预测结果和准确度,但是由于模型拟合过程涉及大量变量和数据,预测因子和结果之间缺少因果联系,预测过程往往太过复杂而难以直观理解。算法决策的“黑箱”特征一方面导致政府部门使用者只能选择相信算法的准确性和公正性,使得算法决策无法得到有效监督和及时纠正。另一方面,对于政策目标群体,由于政府部门无法解释算法决策过程,公众当然也不能理解算法决策的正当性,这就导致算法决策难以获得公众的支持和信任。其次,人工智能算法决策可能使得执行失误的责任归属难以界定,加大公众问责的难度。当前公共决策算法机器系统都是由第三方公司开发维护,一旦发生由算法失灵而导致的决策失误,就可能引发重大社会问题和损失,责任追究和政治问责将面临更大的难度。政府部门可能将责任推给算法和算法开发公司,算法开发公司则以商业秘密为由拒绝公开接受外部审查,其结果使得问责过程漫长而难以产生定论。英国乳腺癌筛查漏检丑闻发生后,英国国家卫生医疗服务体系(NHS)、公共卫生局(PHE)以及负责软件开发的日立咨询公司都在相互指责对方(Donnelly,2018)。

(四)政策评估的算法风险

在政策评估环节,算法决策的主要风险来自评估中存在的算法歧视和偏差问题。尽管人工智能基于其大数据挖掘和生成能力能够实时获取政策执行信息,但是人工智能系统获取的执行信息并不总是公正和准确的。人工智能算法最主要的偏见可能源于数据本身。一方面,可能由于数据样本较小,训练集数据与整体数据分布存在较大的偏差,使得使用训练集拟合的模型无法对样本外未知数据进行准确的预测。另一方面,即使样本数据量够大,但是数据集也可能出现历史遗留的数据偏误问题。人工智能模型基于历史数据做出预测,由于政治社会体制、人类决策和文化中的既有偏误,有些历史数据本身就是高度不平衡的。数据集存在的不平衡性使得某类群体数据在样本中被过度代表,而其他类型的群体则代表性不足,导致在预测模型中,某些预测因子偏向于某类群体,典型的例子就是人工智能算法中存在种族和性别偏见问题。很多美国法院使用北角(Northpointe)公司基于人工智能算法设计的犯罪风险评估系统(CriminalRiskAssessment)预测犯罪行为。然而,2016年,知名的非营利媒体“为了人民”(ProPublica)调查发现,美国一些法院使用这套系统预测犯罪风险和法庭对犯罪嫌疑人进行保释和量刑决策时,认为黑人比白人再次犯罪的概率更高,这种不利于有色人种的人工智能犯罪风险评估在美国司法系统里越来越普遍。④导致预测偏见的根源是美国历史上犯罪和再犯罪统计中黑人等有色人种比例过高,美国司法体系对黑人等有色人种的歧视问题十分突出(Angwinetal.,2016)。

此外,一些程序性的行政任务执行过程比较简单,人工智能评估可以保证较高的准确性和公正性,但是对于政策绩效难以测量的活动,人工智能评估系统难以做到准确可靠,再加上决策者和政策执行者的偏好,以及利益相关者的机会主义行为导致的政策执行过程的扭曲和偏差,使一些偏误和虚假的信息大量涌现,从而使得人工智能在政策评估时发生偏差。在教育领域,2011年美国休斯敦市独立学区利用算法模型“教育增值评价系统”,根据学生的标准化测试成绩来决定教师的奖金,随后学区还进一步使用这一算法来决定教师的聘用,此举引发了教师工会的强烈不满。他们认为该系统评估、评价的学生标准化成绩并不能完全反映教师的工作投入,而且决定学生成绩的因素很多,有些是教师无法掌控的,因此该系统的评估结果既不准确也不公平。后来经过评估,发现这一系统的预测过程不仅难以解释,而且结果也不精确,法院最终推翻了该算法的决策(Zeph,2017)。

四、政策建议

基于对人工智能驱动公共决策过程及其风险的论述,本文对公共决策者如何合理利用人工智能技术提高公共决策的有效性,同时规避算法决策的潜在风险,提出相应的政策建议。

(一)合理选择算法决策与常规决策

在公共决策系统中,根据算法对决策过程主导性的高低,算法决策和人类常规决策之间的关系及其互动形态主要呈现以下三种模式(Zouridis,vanEck&Bovens,2020):第一种是算法自主决策模式。这类模式中,算法取代人类常规决策,决策过程完全自动化,人类决策者几乎没有自由裁量空间,近乎听命于算法。这类模式的典型形式如对城市道路等市政设施坏损的智能监控与预警。第二种模式是算法辅助模式,算法在公共决策中发挥着重要作用,对人类常规决策起到辅助和支持作用。但是,人类常规决策仍然是主导性的,人类决策者对算法辅助过程保持着独立的判断、干预和控制。当下,算法辅助模式应用范围越来越广泛,除了一些公共安全和应急管理决策,如火警、犯罪热点地区、安全卫生检测外,还进一步发展到对公民社会权利和资格的分配领域,如社会救助对象界定、疾病预测、考试成绩判定、教师绩效评估等。第三种模式可以被称为算法咨询模式。这个模式里,算法对公共决策是可有可无的,算法介入决策的程度不深,大多情况是在数据收集过程中被选择性地使用。算法对人类常规决策只起到决策咨询的作用,如提供相关数据信息,算法预测的结果也只是作为人类常规决策的参考,并不会对人类决策起到决定性作用或重要的辅助作用。

上述三种决策模式的选择主要取决于决策任务和场景的特征。主流观点认为,人工智能在决策中的优势主要体现在高度重复性、机械性或日常性的行政程序性场景中,不需要官僚行使过多的自由裁量权和进行价值判断(Bullock,2019)。这类决策场景任务相对简单直观,有一套固定的决策程序,同时能够产生海量的具有重复性行政大数据,数据间关系也易于理解,从而有利于发挥人工智能大数据生成和预测分析能力,因此比较适合算法主导和算法辅助的决策模式。在公共政策过程的几个环节中,相对而言,事务性问题界定和程序性政策执行阶段更适合算法主导模式。但是,另一方面,在一些具有高度复杂性的,需要较多自由裁量权、价值判断和灵活处理的政策制定、执行和评价等政策过程,人工智能就不擅长了。一项研究表明,政府决策者对待算法决策的态度随着决策任务复杂性的增加而趋向消极,决策复杂性越高,决策者对算法决策的认可度就越低(Nagtegaal,2021)。在高度复杂的任务中,人类决策应该是主导性的。此外,公共政策制定过程除了要求有提高效率,降低成本等技术理性外,更重要的是要遵守公正、公开与合法性等公共价值原则。对于涉及价值判断、社会鉴别和伦理评价等活动,如人的生命安全、人身自由、社会权利分配,应该避免由算法主导决策。在这些领域,公众更加偏好常规性的官僚决策或公众参与政策制定,对算法有着天然的不信任感和恐惧心理,任何微小的人工智能预测偏差都可能引发公众的强烈不满和政治争议。总之,应避免对人工智能技术及其推动的算法决策的迷信,审慎决定哪些类型的公共政策的决策适用于人工智能技术,平衡算法决策和人类常规决策的关系,实现算法决策和人类决策各就其位,各得其所,通过相互协调和配合提高公共决策的效率和合法性。

(二)建立参与式的算法决策框架

在算法驱动的公共决策各个环节中加强公共参与,建立参与式的算法决策框架。公共决策的本质特征在于“公共”,公共的价值观包括决策结果的公平公正,以及决策过程的公开和公众参与。算法驱动的公共决策过程也应该尊崇上述公共决策的基本价值观。针对算法决策中存在的“黑箱”和歧视问题,公开与公众参与理应占据更重要的角色。算法决策各个环节的公众参与也是避免人工智能算法决策风险的关键。因此,本文倡导建立参与式的算法决策框架,这个框架应该包括以下几个要素:第一,要吸纳政策相关者和利益主体参与算法的设计,算法决策方案的制定和选择过程中。为了避免因数据偏见和偏差问题而导致的问题界定和议程设置的偏离和谬误,应通过大规模公众调查、代表性利益相关方的访谈与协商恳谈会等民主参与方式进行算法设计和构建,并提高算法的公开性和透明性,如通过协商或投票等公众参与方式来确定算法应该使用的特征集。第二,算法决策的结果在政策方案制定或实施前,应该向社会公开,接受公众和利益相关方的意见和反馈,最后再决定是否采用或实施。在条件允许的情况下,将算法决策提供的方案和人类决策制定的方案进行比较,涉及敏感的权利分配决策时,要看算法决策是否比人类决策更能促进分配的公平性。第三,由于算法存在的偏差或失误可能引发政策执行的偏差与失败风险,应在政策执行过程中建立公众参与和干预机制。本文建议建立人工智能研究人员与社会科学、人文、性别、医学、环境和法律等方面的专家进行合作交流的制度体系,如在政府或公司层面建立人工智能伦理委员会,委员会成员由各领域专家、企业和政府人士构成,对算法系统进行政治与伦理审查。当决定使用人工智能进行公共决策时,除了政府决策者和算法设计者,利益相关者和公众都应该有权利和机会监控人工智能算法决策运作全过程,特别要警惕模型可能产生的偏见、歧视和不公平问题。在问题和风险产生时决策者应及时进行干预,并且为受到不公正待遇的群体提供权利救济。

  *本文得到国家自然科学基金青年项目“我国地方财政结余对财政支出周期性影响及其机制研究”(项目编号:71904130)和深圳市教育科学规划2020年度课题重点资助项目“先行示范区战略下深圳市高等教育产研融合效率评价与机制优化研究”(项目编号:zdzz20003)资助。

参考文献:

陈一帆、胡象明,2019,《大数据驱动型的公共决策过程创新及效果评估——基于SSCI和SCI的文献研究》,载《电子政务》第8期。

[美]戴维·L·韦默、[加]艾丹·R·瓦伊宁,2013,《公共政策分析:理论与实践》,刘伟译校,北京:中国人民大学出版社,第15—20页。

邬彬、肖汉宇,2020,《大数据应用与腐败治理:基于“互联网+监督”的深度个案研究》,载《暨南学报(哲学社会科学版)》第10期。

于文轩,2017,《大数据之殇:对人文、伦理和民主的挑战》,载《电子政务》第11期。

Anderson,J.E.,2003,PublicPolicymaking:AnIntroduction,Boston:Houghton,MifflinCompany.

Angwin,J.,J.Larson,S.Mattu,&L.Kirchner,2016,“MachineBiasThere’sSoftwareUsedAcrosstheCountrytoPredictFutureCriminals.AndIt’sBiasedAgainstBlacks,”Propublica,https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing,2020年6月16日访问。

Baumgartner,F.R.&B.D.Jones,2015,ThePoliticsofInformation:ProblemDefinitionandtheCourseofPublicPolicyinAmerica,Chicago:UniversityofChicagoPress.

Berryhill,J.,K.K.Heang,R.Clogher,&K.McBride,2019,Hello,World:ArtificialIntelligenceandItsUseinthePublicSector,OECDWorkingPaperonPublicGovernance,No.36.

Bullock,J.B.,2019,“ArtificialIntelligence,Discretion,andBureaucracy,”TheAmericanReviewofPublicAdministration,Vol.49, Iss.7.

Burrell,J.,2016,“HowtheMachine‘Thinks’:UnderstandingOpacityinMachineLearningAlgorithms,”BigData&Society,Vol.3,No.1.

Butler,D.,2013,“WhenGoogleGotFluWrong,”Nature,Vol.494,No.7436.

Charette,R.N.,“450,000WomenMissedBreastCancerScreeningsDueto‘AlgorithmFailure,’”IEEESpectrum,https://spectrum.ieee.org/riskfactor/computing/it/450000-woman-missed-breast-cancer-screening-exams-in-uk-due-to-algorithm-failure,2021年8月17日访问。

Chiao,V.,2019,“Fairness,AccountabilityandTransparency:NotesonAlgorithmicDecision-MakinginCriminalJustice,”InternationalJournalofLawinContext,Vol.15,SpecialIss.2.

Donnelly,L.,2018,“BreastScreeningScandalDeepensasItFirmSaysSeniorHealthOfficialsIgnoredItsWarnings,”TheTelegraph,May4,https://www.telegraph.co.uk/news/2018/05/04/breast-screening-scandal-deepens-firm-says-senior-health-officials,2020年6月16日访问。

Dunn,W.N.,2015,PublicPolicyAnalysis:AnIntroduction,NewYork:RoutledgeTaylor&FraneisGroup.

Grove,W.M.&P.E.Meehl,1996,“ComparativeEfficiencyofInformal(Subjective,Impressionistic)andFormal(Mechanical,Algorithmic)PredictionProcedures:TheClinical-StatisticalControversy,”Psychology,PublicPolicy,andLaw,Vol.2,No.2.

Höchtl,J.,P.Parycek,&R.Schöllhammer,2016,“BigDatainthePolicyCycle:PolicyDecisionMakingintheDigitalEra,”JournalofOrganizationalComputingandElectronicCommerce,Vol.26,Iss.1-2.

Howlett,M.&M.Ramesh,2003,StudyingPublicPolicy:PolicyCyclesandPolicySubsystems,OxfordUniversityPress.

Hood,C.,2002,“TheRiskGameandtheBlameGame,”GovernmentandOpposition,Vol.37,No.1.

Kamateri,E.etal.,2015,“ComparativeAnalysisofToolsandTechnologiesforPolicyMaking,”inJanssen,M.,M.A.Wimmer,&A.Deljoo(eds.),PolicyPracticeandDigitalScience:IntegratingComplexSystems,SocialSimulationandPublicAdministrationinPolicyResearch,Cham:SpringerInternationalPublishingSwitzerland.

Kingdon,J.W.,1995,Agenda,Alternatives,andPublicPolicies,NewYork:HarperCollinsCollegePublishers.

Kleinberg,J.,H.Lakkaraju,J.Leskovec,J.Ludwig,&S.Mullainathan,2017,“HumanDecisionsandMachinePredictions,”TheQuarterlyJournalofEconomics,Vol.133,Iss.1.

Langford,Cameron,2017,“HoustonSchoolsMustFaceTeacherEvaluationLawsuit,”CourthouseNewsService,https://www.courthousenews.com/houston-schools-must-face-teacher-evaluation-lawsuit/,2020年6月16日访问。

Leetaru,K.,2011,“Culturomics2.0:ForecastingLarge-ScaleHumanBehaviorUsingGlobalNewsMediaToneinTimeandSpace,”FirstMonday,Vol.16,No.9.

Mehr,Hila,2017,“ArtificialIntelligenceforCitizenServicesandGovernment,”AshCenterDemocraticGovernanceandInnovation,HarvardKennedySchool,https://ash.harvard.edu/files/ash/files/artificial_intelligence_for_citizen_services.pdf.

Mullainathan,S.&J.Spiess,2017,“MachineLearning:AnAppliedEconometricApproach,”JournalofEconomicPerspectives,Vol.31,No.2.

NagtegaalR.,2021,“TheImpactofUsingAlgorithmsforManagerialDecisionsonPublicEmployees’ProceduralJustice,”GovernmentInformationQuarterly,Vol.38,Iss.1.

Osoba,O.A.&V.W.Welser,2017,AnIntelligenceinOurImage:TheRisksofBiasandErrorsinArtificialIntelligence,CantaMonica:RandCorporation.

Rice,D.R.&ChristopherJ.Zorn,2021,“Corpus-BasedDictionariesforSentimentAnalysisofSpecializedVocabularies,”PoliticalScienceResearchandMethods,Vol.9,Iss.1.

Ross,C.&I.Swetlitzi,2017,“IBMPitcheditsWatsonSupercomputerasaRevolutioninCancerCare.It’sNowhereClose,”https://www.statnews.com/2017/09/05/watson-ibm-cancer/,2020年6月16日访问。

Sabatier,P.A.,1999,“TheNeedforBetterTheories,”inP.A.Sabatier(ed.),TheoriesofthePolicyProcess,Boulder,CO:WestviewPress.

Valle-Cruz,David.,EdgarAlejandroRuvalcaba-Gomez,RodrigoSandoval-Almazan,&J.IgnacioCriado,2019,“AReviewofArtificialIntelligenceinGovernmentanditsPotentialfromaPublicPolicyPerspective,”Proceedingofthe20thAnnualInternationalConferenceonDigitalGovernmentResearch,Dubai,UnitedArabEmirates.

Viechnicki,Peter&WilliamD.Eggers,2017,HowMuchTimeandMoneyCanAISaveGovernment?CognitiveTechnologiesCouldFreeupHundredsofMillionsofPublicSectorWorkerHours,NewYork:DeloitteUniversityPress.

Workman,S.,B.D.Jones,&A.E.Jochim,2009,“InformationProcessingandPolicyDynamics,”PolicyStudiesJournal,Vol.37,No.1.

Zeph,Capo&JanetBass,2017,“FederalSuitSettlement:EndofValue-AddedMeasuresforTeacherTerminationinHouston,”AFT,https://www.aft.org/press-release/federal-suit-settlement-end-value-added-measures-teacher-termination-hous,2020年6月30日访问。

Zouridis,Stavros,MarliesvanEck,&MarkBovens,2020,“AutomatedDiscretion,” inPeterHupe&TonyEvans(eds.), DiscretionandtheQuestforControlledFreedom,Cham:PalgraveMacmillan.

【注释】

①姚春鸽:《大数据时代的大变革》,载《人民邮电报》2012年5月29日,第2版。

②一个典型的例子是2016年美国大选期间“剑桥分析”这一政治人工智能公司,利用5000万脸书(Facebook)用户信息进行人工智能分析与预测,分析这些用户的心理特征和政治偏好,并进而推动定制政治广告和新闻,从而影响用户的投票行为。

③除了剑桥分析公司的事例外,近年出现了一种名为“深度伪造”(deepfake)的人工智能换脸技术可以逼真伪造某些领导人的视频和语音信息,极大提高虚假信息的可信度,使其影响力瞬间被千万倍扩大,获得大量公众关注,进而操纵公众情绪,引发社会混乱从而达到某些特殊目的。

④美国司法部原部长埃里克·霍尔德就警告基于人工智能预测的犯罪概率评分系统可能会误导法庭判决,他说:“尽管该系统的设计出于善意,但是我担心它会破坏个性化和公平正义,加剧在刑事司法系统和社会中已经普遍存在的不公正问题”(Angwinetal.,2016)。

【作者简介】吴进进:深圳大学公共管理系(WuJinjin,DepartmentofpublicManagement,ShenzhenUniversity)符阳:深圳大学公共管理系(FuYang,DepartmentofpublicManagement,ShenzhenUniversity)责任编辑:皮莉莉返回目录

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇