冉龙亚、陈涛、孙宁华:人工智能参与公共决策对公众信任的影响——一项基于调查实验的实证研究
人工智能参与公共决策对公众信任的影响
——一项基于调查实验的实证研究
冉龙亚陈涛孙宁华
(华中科技大学公共管理学院)
摘要:政府部门已经开始尝试使用人工智能制定公共决策,但与此相关的信任问题同样需要引起重视。本文探讨人工智能参与公共决策对公众信任的影响,认为公众对于人工智能制定的决策的信任程度取决于决策的类型。研究以公共管理学科的140名本科生和Credamo网络平台的200名用户为样本,进行了两项调查实验,对研究假设进行了检验。结果表明,对于更多涉及定量运算的决策,有人工智能技术参与制定的决策被证明具有更高的可信任度;而对于更多涉及情景判断的定性决策,公众更倾向于认为涉及公共管理者参与的决策的可信任程度更高。由此,提出政府部门应根据决策的类型考虑是否将人工智能技术纳入决策过程,特别是当决策的复杂程度较高、需要更多人的价值判断时更应该审慎对待。
关键词:人工智能,算法,公共决策,决策类型,信任,调查实验
中图分类号:D630文献标识码:A
DOI:10.19524/j.cnki.10-1009/g3.2022.01.103
一、引言
在历经数次浮沉之后,人工智能(ArtificialIntelligence,AI)技术正经历一场传播狂潮,并对社会生活各方面产生深刻的影响。随着技术的不断发展成熟,人工智能技术或以替代或以辅助的形式,已经参与到了人类的决策过程当中,并被广泛应用于提高不同行业的决策质量。在私营部门不断取得的显著效益等多方面因素的共同作用下,政府部门正开始加速采用此技术,并探索将其应用到公共决策当中。如美国多个州的法院使用算法系统对罪犯进行风险评估,以估计累犯风险、支持保释和判决;英国的“智能高速公路”结合人工智能、大数据以及传感器等,对道路交通流量进行管理和预测;杭州的城市管理者通过“城市大脑”配置公共资源,做出科学决策,提高治理效能。
然而,关于使用人工智能技术进行管理决策,是存在争议的。这种争议主要集中在准确性、有效性和偏见等方面,而在强调合法性、公平性的公共决策中,这种争议更甚。在合法性方面,人工智能并不具备和人类相同的法律地位。因此,是否能赋予人工智能参与公共决策的权利,在法律上尚不明确。[1]在有效性方面,对于一些非常规的或较为复杂的公共决策,人类所特有的直觉和意识等特质往往发挥着更重要的作用。因此,在这些决策方面,人工智能技术做出的决策并不一定会比人类更好。[2]而从公平性方面来看,人工智能需要学习过去的数据、经验等,并在此基础之上进行新的决策,因此它有可能会强化或放大过去决策中存在的偏见,[3]从而导致公平性和歧视等问题。此外,责任鸿沟也是需要重点考虑的问题。如果使用人工智能进行公共决策造成了不良的社会后果,那么到底应由谁承担相应的责任。[4]
本文重点关注使用人工智能进行公共决策对公众信任的影响。文中的“信任”是指公众对人工智能参与公共决策的可靠性、有效性和安全性的心理预期。[5]人工智能参与制定决策被认为会影响到公众的信任,因为它通常是不透明的,可能会引入偏见。[6]本文预计,公众的信任程度可能取决于公共管理者和人工智能技术在决策中的参与情况,以及公共决策本身的特征。根据祖里迪斯(Zouridis)等人[7]以及纳格加尔(Nagtegaal)[8]的研究,人工智能参与公共决策的方式主要有三种:为人类提供支持;对人类进行赋能;完全取代人类。本文检验了这些不同决策方式对公众信任的影响,并假设公众的信任程度会因决策对象的类型而不同。具体而言,本文主要研究以下问题:在定量型和定性型两种不同类型的公共决策情形之下,公众对于人工智能参与公共决策的三种方式的信任是否存在显著的差异?如果存在差异,那么导致差异的原因又是什么?
人工智能参与公共决策,可能有悖于政府治理中的合法性、有效性以及公平性等基本准则和价值追求。本文探讨公众对于人工智能参与公共决策的信任问题,这对厘清人工智能在公共决策中的适用边界与范围,从而推动公共决策与社会治理的良性发展,具有重要的现实意义。近年来,实验法由于具备有效排除无关变量的显著优势,在公共管理学界引起了高度的重视,但是具体到本研究主题的相关研究中,实验法的应用还较为罕见。因此本文使用实验的方法对人工智能、信任等相关议题的研究,对于拓展相关领域的研究方法,也有一定的学术价值。
二、研究背景
1.人工智能
人工智能是一门综合了计算机科学、信息论、神经生理学、语言学、哲学等多种学科发展起来的交叉学科,是一个不断迅速扩展的技术研究领域。[9]由于其与高级统计分析的重叠以及不断发展的能力,目前学界尚未对其形成统一定义,[10]但本质上它是一种建立在机器学习、自然语言处理等多种技术基础上的计算机系统,具有智能化特征,并能以更灵活的方式为人类服务。[11]在决策制定过程中使用的人工智能技术,更确切来说应该指的是算法:“一种被应用到系统中的,用于在特定分析领域内分析任务的抽象数学结构”[12],或者是“一种基于统计模型或决策规则,在没有明确人工干预的情况下自动做出决策的数学公式”。[13]
2.公共决策中人工智能的价值与应用
已经有文献对人工智能在政府部门工作中的价值与影响进行了分析,主要包括降低成本、提高效率、减轻工作负担、提升服务质量等。具体到公共决策方面,人工智能技术的价值也是显而易见的。第一,人工智能有助于决策者快速全面获取、深度发掘分析与决策对象有关的所有信息,这将有助于提升公共部门宏观调控政策的精准性和针对性。[14]第二,人工智能与决策者的有机结合能有效地监管公共部门决策。运用自动化算法配合人工决策,可以显著减少服务处理中的欺诈和错误。[15]第三,人工智能可以支持公共部门汇总和分析社会公众的政策偏好和需求,以更好地理解政策措施将在什么情况下有效,并合理调配有限资源。[16]
在实际的公共决策实践中,已经有部分政府尝试使用人工智能技术。从广义上说,人工智能系统既可以用来支持或者帮助人类决策者,也可以取代他们。[17]具体而言,这些应用又可以分为三种情况:第一种情况,公共决策完全实现自动化,人工智能替代了公共管理者的角色。换句话说,技术是决定性的,管理者完全没有决策的权力。第二种情况,在决策的过程中,人工智能技术对公共管理者进行赋能或者增强,在决策的过程中对人类形成辅助,最终的决策仍然由人类作出。一个例子就是预测性警务。[18]第三种情况,人工智能技术作为对人类的支持,但实际在决策过程中并没有被使用。
3.信任
信任代表的是对人工智能的可靠性、有效性和安全性等的一种信念。[5]对于人工智能技术而言,鉴于信任既是公众接受和使用它的重要因素,又是决定公众在多大程度上采纳它做出的决策的关键前因,[19]因此研究者对此给予了密切的关注。一方面,有研究分析了人工智能参与决策对于公众信任的影响,并指出人工智能技术在决策中存在的技术安全、隐私侵犯、公平性等问题,都会对公众信任产生显著影响。[2]另一方面,也有研究对电子商务、智能医疗等背景下,影响公众对人工智能技术的信任的因素进行了一定探讨。结果表明,人工智能技术本身的性能与特征,如可靠性[20]、智能性[21]、拟人性[22],是影响信任的关键前因。研究同时也发现,公众的相关知识与技能水平[23]、自身的创新性和开放性[24]等个体特质,也会影响到对人工智能技术的信任水平。
前人的研究,为理解人工智能参与公共决策对公众信任的影响,提供了有益借鉴,但不足之处同样值得重视。首先,公共管理领域缺乏对相关问题的定量探讨。虽然部分研究初步讨论了使用人工智能技术进行公共决策时的信任问题,但这些研究主要是从质性分析的角度进行探讨,对影响信任的因素以及相应作用机制的理解还不够深入。如果公众不信任有人工智能参与制定公共决策,很可能会影响到政府部门的治理效能,甚至进一步影响政府的合法性。[20]因此,进一步厘清这一问题十分必要。其次,缺乏对决策本身特征的关注。已有研究主要从人工智能的技术属性和公众自身的个体特质两个方面,探讨了影响公众对人工智能信任的因素,但是对于决策本身特征的关注还不足。实际上,任务本身的类型、复杂程度等特征,也可能会对公众信任产生影响。[25]
三、研究假设
根据李敏京(MinKyungLee)的研究,可以把决策分为:(1)满足人工智能技术的IF-THEN类型规则体系,更多需要“机械”技能,如处理定量数据以进行客观测量或规则清晰的定量决策;(2)决策时更注重价值平衡和更具灵活性的,更多需要人类仍然占优势地位的技能如主观和直观判断、理解和情感表达以及浏览社会细微差别的定性决策。[13]相关研究指出,对于不同的公共决策类型,当由人工智能技术进行决策时,公众在信任程度方面会存在显著的差异。[26]
我们预期,对于定量型决策,公众会更倾向于信任人工智能参与制定决策。有研究认为,人工智能善于处理简单和重复性的任务,[27]擅长解决边界清晰、具有良好结构性(模块化或“可分解”)的问题,因而其提出的解决方案或制定的决策也具有标准化的特征。[28]Lee的研究指出,对于“量化”任务,如基于预测客户数量的工作安排,算法和人类被认为是同等公平的。[13]肯·帕里(KenParry)等人的研究也表明,在低复杂性决策方面,人工智能用可计算的标准实现了一些定量目标,制定的决策已经超越了人类。[29]据此,本文认为,对于规则清晰、主要涉及定量运算的公共决策,即涉及有限数量变量且相对无争议的量化任务,公众将倾向于信任由人工智能技术决策。在这些情况下,人工智能可以快速、准确地制定决策。这就引出了下面的假设:
假设1:对于定量型的公共决策,由人工智能制定的决策更可能获得公众信任。
在涉及更高程度的模糊性和不确定性的决策活动中,无法将决策过程简化为一个明确的目标函数来描述,这就需要决策制定者在决策过程中综合运用判断和直觉等能力,通盘考虑所有因素并做出更为复杂的判断。[30]显而易见,人类在这方面的优势更明显。[27]尽管实践中都是从技术角度提升人工智能的性能,但其抽象思维和界定问题的能力依然不如人类,因而应适当要求人工智能和人类在决策中进行分工。[28]类似的观点也得到了其它研究的印证,Lee认为,对于涉及情绪和人类交互的任务,人类决策者比人工智能更受青睐。[13]穆罕默德·侯赛因·贾拉希(MohammadHosseinJarrahi)也指出,解剖复杂社会系统迷宫的责任往往不在人工智能的能力范围内。[31]因此,人类在理解模糊决策情况下错综复杂的社会和政治动态方面继续享有比较优势,这为由人类进行决策提供了独特的位置。据此,我们预期,对于规则不明、涉及主观判断的公共决策,由人类进行决策将得到社会公众的更多支持。由此,我们提出:
假设2:对于定性型的公共决策,公众将更倾向于信任由人类决策制定者制定的决策。
四、研究方法与设计
1.研究方法
近年来,实验法因其控制无关变量的独特优势,受到了越来越多公共管理学者的追捧。对此,有研究认为,实验法的显著优势在于可以通过随机化的实验操纵排除无关变量干扰,从而观察到自变量对因变量的“净效应”。[32]因此,相较于其他研究方法,实验法被认为是探讨因果关系的最有效方法,是因果推论的黄金法则。[33]
从类型上看,实验可分为实验室实验、问卷(调查)实验、现场(田野)实验、自然实验和准实验等五类。[34]本研究中采用了第二种问卷实验。问卷实验作为一种科学、严谨的研究方法,主要是在实验设计中采用问卷调查的形式来呈现实验刺激材料,发现社会现象之间的因果联系,帮助学者探寻实验对象的本质。问卷实验同样包含实验设计的基本要素,即由研究者操控的外生性干预和对被试的随机化处理。[35]问卷实验通过向被试呈现不同的问卷版本进行实验操纵,被试随机得到一种版本的问卷并作答。和其它实验类型相比,问卷实验虽然对环境的控制较弱,但由于发放问卷具有简单易操作的突出优势,因而在公共管理实验研究中得到了广泛使用。[36]
2.研究设计
本研究建立在Lee[22]和Nagtegaal[8]的基础之上,但是将研究扩展到了公众对公共决策的信任方面。在研究中,本文进行了两项实验。实验1采用的是受试者间设计,并以3所学校公共管理学科的本科生为样本,探讨了公众对于由人工智能技术参与两种不同类型的公共决策的信任问题。实验2是作为实验1的复制而设计的,但使用了受试者内设计,这使本文能够评估在多种类型决策主体并列的情况下,公众对人工智能技术参与公共决策的信任情况是否会与实验1的结果不同。同时,实验2选用的是Credamo网络问卷平台的用户作为样本,因此能进一步对实验1中得出的结论进行检验,从而增强研究结论的外部效度。
本研究中设定的定量型和定性型公共决策分别是个人所得税计算和司法判定。个人所得税的计算是由法律决定的,相应的规则比较明确,因此主要涉及的是定量计算。而司法判定是一项较为复杂的公共决策实践,涉及到的因素众多,并且一定程度上还需要结合实际问题进行价值判断与分析,属于定性决策。
根据当前公共决策当中常见的三种决策制定主体,即人工智能技术、人工智能技术+公共管理者、公共管理者,以及定量决策和定性决策两种不同公共决策类型,实验1设计了一个随机分组3*2混合设计实验,并总共将形成3个实验组分别代表当前在公共决策当中的三种常见决策方式。[8]根据研究主题,我们的因变量是信任,使用直接测量的方式。如“你信任上述决定公众个人所得税的方式吗?”受访者可以在7分李克特量表上从1(“完全不信任”)到7(“完全信任”)中选择一个数字。最后,我们要求参与者在一个开放式问题中解释他们评分的原因。根据实验设计,最终测量得到6组信任值(Tr),如表1所示。实验结束后,对测量结果进行描述统计,检验独立样本T、配对样本T,进行定性分析等,检验与分析使用人工智能进行不同的公共决策,对于公众信任程度的影响。
表1双因素被试间实验设计
实验1中的被试为3所大学公共管理相关专业的本科生。他们随机得到三个版本问卷中的一个。参与调查的被试者首先被问及一些关于人工智能及其应用的相关问题,如是否了解人工智能、使用经历等。其次被要求根据实验设定的定量型公共决策场景,判定对不同决策主体所做的公共决策的信任程度并说明原因。再次,被要求在实验设定的定性型公共决策场景下,重复上述过程。最后,设计了检测题项“根据你阅读到的上述材料,是由()决定个人所得税和进行司法判定?”,来检验被试是否真正接收到了上述实验干预信息。实验流程见图1。
图1实验1流程图
作为对实验1的重复和检验,本文进一步设计了实验2。在实验场景设定上,实验2中使用了和实验1相同的两种公共决策场景,以确保研究的严谨性。在研究设计上,实验2采用了将决策主体并列的方式,让被试对由3种不同决策制定主体(人工智能/人工智能+公共管理者/公共管理者)做出相同公共决策的信任程度,分别进行评分。具体的操作上,同样采用的是直接测量的方式,让被试在7分李克特量表上回答“你觉得你在多大程度上可以信任由下述方式来决定个人应缴纳的所得税/进行司法判决?”。实验2流程如下图2所示。此外,考虑到以大学生作为实验被试可能会存在样本的代表性问题,因此在实验2的被试选择上,本研究通过Credamo网络问卷平台选取了200名被试,以进一步对实验1的研究结论进行检验。
图2实验2流程图
五、研究结果
1.实验组平衡检验
为检验实验1中各实验组是否符合随机性要求,需要对各组被试的性别、对人工智能的了解程度、人工智能的关注度和使用体验等因素进行平衡检验(BalanceTest)。数据分析结果显示,各实验组被试的上述因素,在0.05的水平上不存在显著差异。以上平衡检验结果表明,本实验对被试的抽样符合随机要求,具有良好的均衡性,能很好地避免系统误差。平衡检验结果见表2。
对于实验2,本研究统计了各被试的主要人口统计学因素如性别、年龄、受教育程度、年收入等,结果如下表3所示。
表2实验组平衡检验结果
表3受访者相关统计信息
2.信任感知差异检验
在实验1中,本文以不同公共决策类型为主体内因素,以不同类型决策方式为主体间因素,使用SPSS24.0的混合方差分析功能分析了不同公共决策类型与决策方式的交互作用,结果显示,二者的交互作用显著[F(2,137)=19.128,p=0.000
对于定量型公共决策个人所得税计算,方差分析的结果显示不同实验组之间,在信任程度方面具有显著的差异[F(2,137)=16.669,p=0.000
图3不同实验组公众信任比较
对于定性型的公共决策司法判定,方差分析的结果显示不同实验组之间,在信任程度方面有显著差异[F(2,137)=10.717,p=0.000
对于实验2,即受试者内复制实验,双向重复测量ANOVA表明公共决策类型和决策主体间存在显著的交互作用(F=520.566,p=0.000
对于定量型公共决策场景个人所得税计算,结果显示在不同决策主体情况下,公众的信任程度有显著差异。其中,在由人工智能技术作为决策主体的情况下(M=5.64,SD=0.665)与由公共管理者作为决策主体的情况下(M=4.35,SD=1.065)(p=0.000
图4实验2结果图
3.公众信任度差异原因分析
上述数据分析结果表明,对于定量型公共决策,公众认为由人工智能参与决策的信任度更高。而对于定性型公共决策,公众认为公共管理者和人工智能共同制定决策的信任水平更高。我们尝试从开放性问题中做一个概要的定性讨论,以作解释。
首先,对于定量型公共决策,由人工智能单独制定的决策,比由人类制定的决策,具有更高的信任程度。因为人工智能算法被认为是客观的,其计算结果也更准确,而公共管理者则被视为是主观的,其计算也很有可能会出现错误。这一观点得到了实验被试的支持。较多被试均指出,人工智能算法具有准确、客观的特征,因此出现差错的概率比较小。如有的被试提到“由计算机计算个人所得税误差或歧义比较小,每个人的个人所得税都走相同的程序”,因此“按设定的程序计算就很公平”。与此相反,“计算机计算不带有主观因素”,而“有时候人会带有主观色彩”,因此“不能实现完全公平”。
另外,和公共管理者独立制定决策比较起来,公众也更加倾向于青睐由人工智能和公共管理者协同制定的决策。这也可以从被试的回答中找到依据。例如,有被试回答到,“人工智能和人的判断相结合,可以实现理性和感性的结合,有利于减少失误。”“计算机计算的数据相对准确,加上政府部门人员根据实际情况进行判断,使得结果更加可信”。类似的回答还有,如“计算机算法数据精准,方便快捷,再加上工作人员基于现实的判断,二者结合使得结果更加可信。”“计算机的算法比较客观,政府部门工作人员可以用客观数据来调整个人的主观判断。”
对于定性型公共决策,公众认为由公共管理者参与制定的决策,比由人工智能单独做出的决策,具有更高的信任程度。这是因为定性型公共决策的决策过程需要考虑的价值平衡、规则等因素较多,这就更加依赖于人类所特有的情景判断等能力。正如被试在回答中提到的一样,“司法判定存在错综复杂的关系,不好用计算机程序设定”,“计算机没有独立的思维,程序运行相对较为死板,没有或几乎很少能根据实际情况来断定”。另外,还有很多被试提到,“司法判定是道德与法律并存的,有时候不是计算机就能做出裁断,需要考虑人道主义因素”,“人工智能在情感上与人类相比,还是差点的,而司法判定不仅要依靠法理,也需要人情”。这启迪我们,在涉及情感判断等人类所特有的特征时,人工智能技术相对于公共管理者具有天然的劣势。
六、结论与讨论
作为人工智能技术最重要的应用之一,人工智能技术逐渐开始在复杂、日益多样化的环境中扮演半自治甚至完全决策者的角色。[37]但与此同时,争议也从未间断。这在强调公平正义的政府部门决策中体现得更为明显。这种争议推动本文对于人工智能参与公共决策的公众信任问题进行研究,并试图通过调查实验的方法、采用定量定性相结合的方式,对相关问题进行实证探讨。本文认为,探讨这个问题是十分有价值和必要的,因为这关系到公共决策的合法性和公众的接受度。
本文的研究结果表明,人工智能参与公共决策对于公众信任的影响,会因决策的类型而有所区别。具体而言,对于定量型公共决策,公众认为由人工智能进行决策(无论是独立还是与公共管理者协同),其信任程度较高。这表明,对于较多涉及定量计算或者规则比较明晰的定量型决策,公众更倾向于信赖人工智能,因为它被认为是客观无偏的,能够保证所有人都受到公平的待遇,而如果由人类做出决策,则有可能会因主观偏见或者计算误差等,导致决策的不公平。对于定性型公共决策,相对于人工智能单独做出的决策,由人类参与制定的决策(人类单独做出或者与人工智能共同做出),具有更高的信任水平。这种差异可以归因于这样一种信念,即人工智能不能处理涉及和依赖人类技能的实践,例如同情心和创造力。公众认为这些因素很难衡量。因此,本文认为在定性型的公共决策中,人工智能只适宜成为公共管理者的决策伙伴,而不是成为他们的替代者。[38]
本研究的启示在于,要积极探索与推动人工智能技术在公共决策中的应用。首先,对于规则清晰、问题界限明确的定量型公共决策,应该积极探索自动化决策(无论是替代人类还是辅助人类)的可能,发挥人工智能算法运算快速准确、公正客观的优势,既避免人为决策的主观性和可能出现的错误,又有效地将公共管理人员从这些耗时耗力的常规性决策中释放出来,以从事更有价值性和创造性的工作。[11]其次,对于涉及人类特有的情景判定、情感交互、价值判断与平衡等特征的定性型公共决策,虽然由人工智能取代公共管理者进行决策并不可取,但是将其纳入公共决策过程,协助公共管理者进行决策,同样具有极大价值。正如有的研究者提到的,在以不确定性、复杂性和模糊性为典型特征的决策过程中,“凭借更大的计算信息处理能力和分析方法,人工智能可以在解决复杂性时扩展人类的认知,而人类仍然可以在组织决策中提供更全面、直观的方法”。[31]
本研究的不足也同样值得关注。首先,本文使用调查实验的研究方法,其优点是可以控制被试基于同样的情景做出判断,缺点则是被试需要假想身处相应的情境,这在一定程度上增加了研究效度受损的可能性。[39]其次,本文对于公共决策类型的划分以及相应实验场景的设定,一定程度上是根据自身的判断,因此可能会导致研究的严谨性受损,同时也有可能使得研究结论在推广上有一定的局限性。最后,本文只从决策类型的角度,探究人工智能参与公共决策对公众信任的影响。但事实上,人工智能技术参与公共决策,无论是对于公众的信任还是政府的采纳,需要考虑的因素很多,这是本文力所不逮的。
今后,围绕人工智能和公共决策这一话题,还需对以下问题展开研究:第一,从定性讨论、定量论证等角度出发,研究目前人工智能参与公共决策存在的合法性、有效性、公平性、可责性等问题,提出切实可行的解决方案。第二,针对人工智能参与公共决策制定,对公众其他方面的感知(如公平、程序正义等)的影响,进行更多维、全面的实证研究,并据此为公共管理者提供切实可行的实践建议。第三,针对人工智能可能在公共决策中扮演的三种角色——支持、增强以及完全替代,探讨其适用场景及其相应的边界,即厘清哪些场景更适合完全由人工智能进行决策,哪些场景人工智能只能作为人类决策者的决策辅助。
参考文献
END
人工智能赋能美国海军战术决策
2.人机决策
图2.用于决策的人机模型
自主决策辅助/机器可通过多种方法帮助人类决策者。如图2所示,有三种人机决策互动模型。针对不同决策类型建立适当的机制十分重要。总的来说,当问题相对简单,且需要考虑的因素和信息量未超出人类决策者处理能力的上限时,可以采用手动决策模型。对于更加复杂且可能导致严重或致命后果的决策空间而言,半自主人机交互(HMI)机制最为合适。这一机制需要自主BMA的支持,但同时也需要大量的人类决策力量。完全自主的人机互动适用于需要处理和融合海量数据的决策空间,不过,这一机制可进行的决策类型比较单纯。全自主决策模型可用于两种情况,其一,和平时期的作战行动,此时决策不会产生可怕后果;其二,在极度复杂的作战行动中,人类无法及时决策的时候。全自主决策模型适用于拥有高度准确的态势信息和认知的决策空间,比如,海军十分肯定跟踪目标就是敌方威胁目标时,就可以使用这一决策模型。
未来,作战管理决策支持系统将拥有根据决策空间选择适当决策模型的能力。要实现这一系统,就需要有灵活的决策架构以适应这三个人机模型,并根据需要对其加以使用。该系统的上层建筑需监控决策空间并对所需决策类型进行评估,然后再确定合适的人机交互模型进行决策。上层建筑将依靠AI方法来学习和评估态势复杂度,以使用合适的人机模型做出相应的响应决策。
3.为协调分布式作战而进行的部队层面的决策
作战管理行动十分复杂,而一个高度复杂的任务需要足够复杂的系统来执行。由于当前存在来自各方的多种威胁,因此战术环境即可能是和平的,也可能是极度危险的,还可能处于灰色地带。战术环境的多变性使得作战管理的决策空间复杂化。决策空间的状态必须足够灵活,在常规的无威胁行动中线性且直接,在作战行动中则高度复杂且多变。
AI可以描述作战环境的复杂程度并将这些信息转化为决策空间,从而为人类决策者提供支持。理想状态下,完整且准确的作战空间图将为决策空间提供态势感知。BMA使用AI可监控作战空间图,并对问题空间的复杂特征进行评估。这些信息都可及时有效地支持决策辅助,并实现人机决策的高效互动。
4.决策范围和决策系统之系统
复杂的战术环境需要全局视角以从部队层面管理战争资源。随着环境变得越来越复杂,安全事件发生的频率越来越高,常常出现多个事件同步发生的情况。决策次数因此也不断增多,导致海军所需的行动方案不断增加。这一切都对有限的战争资源提出了更多要求,且与资源相关的任务、目标和行动方案三者之间的关联也比过去更加紧密。全面了解多种威胁、任务和潜在解决方案及其可能结果有助于海军做出更有效的军事响应措施,这同时也是有效解决严峻威胁的必做事项。对战场的全局视角可描述为决策范围,即围绕问题空间和解决方案空间设定的边界。广义上的决策范围包括地区、战区以及存在这些地理空间区域的全部威胁和战争资源。狭义的决策范围可能仅包括特定威胁和特定平台及其相关资产。
未来,海军如面临复杂的作战问题空间,可使用自主BMA建立更全面、更广阔的的决策范围,并对平台和各级部队进行资源管理。各级别自主BMA可在各层面支持资源利用。支持特定传感器和武器的BMA可由更高级的BMA架构的进行协调。通过这一方式,海军可实现BMA系统之系统。
5.资源管理
资源管理是战术决策和后续对自主BMA应用的首要关注点。将舰船、飞机、潜艇、武器、传感器、通讯设备/网络、数据处理和干扰器等战争资产定义为系统后,自主BMA就可以将它们视作资源并从功能、性能、行为、结构和交互等方面对其进行审视。自主BMA可以根据资源的位置、状态、能力等特征对其进行量化分析。在愈加复杂的作战行动中,当存在多个重叠且相互冲突的目标时,AI方法可用于确定战争资源的使用有效性。在BMA的帮助下,战争资源能够利用可达成的效果在各系统间形成协作,以实现系统之系统行为,并更好地解决复杂的战术任务。
图3.数据融合架构中的资源管理
如图3所示,资源管理是数据融合流程的一部分。在这一架构概念中,资源管理被分为4个步骤,通过评估数据融合成果来确定管理和分配资源的最佳方法。资源管理同时还向0-3级的数据融合流程提供反馈。该数据融合架构也是在各级步骤中实施AI方法的有效模型。鉴于计算能力和许多新型数据源已获得了长足的发展,海军可利用机器学习和深度学习来改善资源管理,这一点在作战态势复杂、战争资源分散的情况下尤其重要。
图4.战术模型和决策空间
另一个进行资源管理的方法是使用系统或数据模型。决策空间本身可视作一个系统或模型。在决策空间采用系统方法可定义范围、输入和输出、功能、性能和结构。图4展示了作战环境中的决策空间。
决策空间是所有决策因素进入决策流程以形成战术行动方案的模型。这一概念性的决策空间模型以数据架构和数据分析为基础,其中包括决策辅助、评估、优先级、选项生成和总体决策管理。决策空间系统的主要功能是开发决策选项。决策选项可提供关于管理战争资源资产的建议,如传感器任务分配、行动方案、武器调度和平台机动等。决策空间系统的另一个功能是对决策选项的可信度以及用于生成选项的多种分析进行评估。这些分析包括确定威胁优先级、评估兵棋推演潜在结果、评估传感器误差、评估信息的准确度和完整度、评估作战复杂度、推荐最佳人机决策交互等。尽管图4中并未展示人类与自主决策空间的交互,但值得注意的是,这类交互在战术作战行动中意义重大。概念性决策空间系统可输出决策选项、对预测结果的评估、对成功概率和失败概率的评估、对总体源信息、选项和情报的可信度评估。
为协调全军的战术决策,海军需要一个包含多个分布式决策系统的系统,即将多个相同的智能体集成到多个分布式作战平台上。这些智能体将共享数据和信息,并分别开发决策选项以进行资源管理和部队级别的作战管理。分布式代理将共享决策选项,并相互同步最终选定的决策。这一决策系统之系统将协调分布式作战,并以优化部队战争资源为目标。这一未来概念能否实现,将取决于智能分析方法以及拥有自我意识的智能数据战略和数据架构的发展。如果这一概念成为现实,那么这一AI系统之系统将使海军在战术决策上获得巨大优势。
6.预测分析
AI技术利用机器学习方法来处理和分析海量异构数据和信息,从而分析可能的效果、结果和响应措施。这类AI方法被称为预测分析(PA),可提供强大的战术决策力量。海军只要掌握与可能效果和敌方响应行动方案相关的信息,作战人员就可以有效地将长期战略应用于近期战争决策。
PA能力可支持战术领域内的战略行动,预测可能后果和各决策选项的效果。理论上,PA能够通过开发假设性的预测场景来同步进行未来情报决策和资源协调管理。PA将预测不同行动方案的短期和长期效果,而BMA将评估这些PA预测,并根据评估结果在选择行动方案时进行权衡。
PA可以评估行动方案的潜在结果,并对未来环境和战争资产的状态做出预测。预测结果将用于支持对行动方案的选择决策,以获得最理想的作战结果。PA能力将有助于完成与短期和长期目标最相符的战术行动,还能够预测气候对作战行动的可能影响以及战争资源的可用性、消耗性和预期能力。此外,PA能力还可评估和预测战术作战团队的整体战备状态、韧性和作战能力。
PA能力可通过博弈论方法来进行兵棋推演评估,从而预测敌人对战术行动的反应。海军必须根据其对敌方的了解和预测来开发和维护模型,以预测敌方情报、能力、意图和战略。此外,海军必须再另外开发一个预测模型并对其进行维护,该模型将根据已有的猜测和战术情报来预测敌方对己方军队的认知。兵棋推演能力理论上应是战术决策BMA能力的一部分。
结论
本文来源:渊亭防务
关注公众号了解更多
会员申请请在公众号内回复“个人会员”或“单位会员
欢迎关注中国指挥与控制学会媒体矩阵
CICC官方网站
CICC官方微信公众号
《指挥与控制学报》官网
国际无人系统大会官网
中国指挥控制大会官网
全国兵棋推演大赛
全国空中智能博弈大赛
搜狐号
一点号返回搜狐,查看更多