博舍

冉龙亚、陈涛、孙宁华:人工智能参与公共决策对公众信任的影响——一项基于调查实验的实证研究 人工智能对决策技术的影响论文怎么写好

冉龙亚、陈涛、孙宁华:人工智能参与公共决策对公众信任的影响——一项基于调查实验的实证研究

人工智能参与公共决策对公众信任的影响

——一项基于调查实验的实证研究

冉龙亚陈涛孙宁华

(华中科技大学公共管理学院)

摘要:政府部门已经开始尝试使用人工智能制定公共决策,但与此相关的信任问题同样需要引起重视。本文探讨人工智能参与公共决策对公众信任的影响,认为公众对于人工智能制定的决策的信任程度取决于决策的类型。研究以公共管理学科的140名本科生和Credamo网络平台的200名用户为样本,进行了两项调查实验,对研究假设进行了检验。结果表明,对于更多涉及定量运算的决策,有人工智能技术参与制定的决策被证明具有更高的可信任度;而对于更多涉及情景判断的定性决策,公众更倾向于认为涉及公共管理者参与的决策的可信任程度更高。由此,提出政府部门应根据决策的类型考虑是否将人工智能技术纳入决策过程,特别是当决策的复杂程度较高、需要更多人的价值判断时更应该审慎对待。

关键词:人工智能,算法,公共决策,决策类型,信任,调查实验

中图分类号:D630文献标识码:A

DOI:10.19524/j.cnki.10-1009/g3.2022.01.103

一、引言

在历经数次浮沉之后,人工智能(ArtificialIntelligence,AI)技术正经历一场传播狂潮,并对社会生活各方面产生深刻的影响。随着技术的不断发展成熟,人工智能技术或以替代或以辅助的形式,已经参与到了人类的决策过程当中,并被广泛应用于提高不同行业的决策质量。在私营部门不断取得的显著效益等多方面因素的共同作用下,政府部门正开始加速采用此技术,并探索将其应用到公共决策当中。如美国多个州的法院使用算法系统对罪犯进行风险评估,以估计累犯风险、支持保释和判决;英国的“智能高速公路”结合人工智能、大数据以及传感器等,对道路交通流量进行管理和预测;杭州的城市管理者通过“城市大脑”配置公共资源,做出科学决策,提高治理效能。

然而,关于使用人工智能技术进行管理决策,是存在争议的。这种争议主要集中在准确性、有效性和偏见等方面,而在强调合法性、公平性的公共决策中,这种争议更甚。在合法性方面,人工智能并不具备和人类相同的法律地位。因此,是否能赋予人工智能参与公共决策的权利,在法律上尚不明确。[1]在有效性方面,对于一些非常规的或较为复杂的公共决策,人类所特有的直觉和意识等特质往往发挥着更重要的作用。因此,在这些决策方面,人工智能技术做出的决策并不一定会比人类更好。[2]而从公平性方面来看,人工智能需要学习过去的数据、经验等,并在此基础之上进行新的决策,因此它有可能会强化或放大过去决策中存在的偏见,[3]从而导致公平性和歧视等问题。此外,责任鸿沟也是需要重点考虑的问题。如果使用人工智能进行公共决策造成了不良的社会后果,那么到底应由谁承担相应的责任。[4]

本文重点关注使用人工智能进行公共决策对公众信任的影响。文中的“信任”是指公众对人工智能参与公共决策的可靠性、有效性和安全性的心理预期。[5]人工智能参与制定决策被认为会影响到公众的信任,因为它通常是不透明的,可能会引入偏见。[6]本文预计,公众的信任程度可能取决于公共管理者和人工智能技术在决策中的参与情况,以及公共决策本身的特征。根据祖里迪斯(Zouridis)等人[7]以及纳格加尔(Nagtegaal)[8]的研究,人工智能参与公共决策的方式主要有三种:为人类提供支持;对人类进行赋能;完全取代人类。本文检验了这些不同决策方式对公众信任的影响,并假设公众的信任程度会因决策对象的类型而不同。具体而言,本文主要研究以下问题:在定量型和定性型两种不同类型的公共决策情形之下,公众对于人工智能参与公共决策的三种方式的信任是否存在显著的差异?如果存在差异,那么导致差异的原因又是什么?

人工智能参与公共决策,可能有悖于政府治理中的合法性、有效性以及公平性等基本准则和价值追求。本文探讨公众对于人工智能参与公共决策的信任问题,这对厘清人工智能在公共决策中的适用边界与范围,从而推动公共决策与社会治理的良性发展,具有重要的现实意义。近年来,实验法由于具备有效排除无关变量的显著优势,在公共管理学界引起了高度的重视,但是具体到本研究主题的相关研究中,实验法的应用还较为罕见。因此本文使用实验的方法对人工智能、信任等相关议题的研究,对于拓展相关领域的研究方法,也有一定的学术价值。

二、研究背景

1.人工智能

人工智能是一门综合了计算机科学、信息论、神经生理学、语言学、哲学等多种学科发展起来的交叉学科,是一个不断迅速扩展的技术研究领域。[9]由于其与高级统计分析的重叠以及不断发展的能力,目前学界尚未对其形成统一定义,[10]但本质上它是一种建立在机器学习、自然语言处理等多种技术基础上的计算机系统,具有智能化特征,并能以更灵活的方式为人类服务。[11]在决策制定过程中使用的人工智能技术,更确切来说应该指的是算法:“一种被应用到系统中的,用于在特定分析领域内分析任务的抽象数学结构”[12],或者是“一种基于统计模型或决策规则,在没有明确人工干预的情况下自动做出决策的数学公式”。[13]

2.公共决策中人工智能的价值与应用

已经有文献对人工智能在政府部门工作中的价值与影响进行了分析,主要包括降低成本、提高效率、减轻工作负担、提升服务质量等。具体到公共决策方面,人工智能技术的价值也是显而易见的。第一,人工智能有助于决策者快速全面获取、深度发掘分析与决策对象有关的所有信息,这将有助于提升公共部门宏观调控政策的精准性和针对性。[14]第二,人工智能与决策者的有机结合能有效地监管公共部门决策。运用自动化算法配合人工决策,可以显著减少服务处理中的欺诈和错误。[15]第三,人工智能可以支持公共部门汇总和分析社会公众的政策偏好和需求,以更好地理解政策措施将在什么情况下有效,并合理调配有限资源。[16]

在实际的公共决策实践中,已经有部分政府尝试使用人工智能技术。从广义上说,人工智能系统既可以用来支持或者帮助人类决策者,也可以取代他们。[17]具体而言,这些应用又可以分为三种情况:第一种情况,公共决策完全实现自动化,人工智能替代了公共管理者的角色。换句话说,技术是决定性的,管理者完全没有决策的权力。第二种情况,在决策的过程中,人工智能技术对公共管理者进行赋能或者增强,在决策的过程中对人类形成辅助,最终的决策仍然由人类作出。一个例子就是预测性警务。[18]第三种情况,人工智能技术作为对人类的支持,但实际在决策过程中并没有被使用。

3.信任

信任代表的是对人工智能的可靠性、有效性和安全性等的一种信念。[5]对于人工智能技术而言,鉴于信任既是公众接受和使用它的重要因素,又是决定公众在多大程度上采纳它做出的决策的关键前因,[19]因此研究者对此给予了密切的关注。一方面,有研究分析了人工智能参与决策对于公众信任的影响,并指出人工智能技术在决策中存在的技术安全、隐私侵犯、公平性等问题,都会对公众信任产生显著影响。[2]另一方面,也有研究对电子商务、智能医疗等背景下,影响公众对人工智能技术的信任的因素进行了一定探讨。结果表明,人工智能技术本身的性能与特征,如可靠性[20]、智能性[21]、拟人性[22],是影响信任的关键前因。研究同时也发现,公众的相关知识与技能水平[23]、自身的创新性和开放性[24]等个体特质,也会影响到对人工智能技术的信任水平。

前人的研究,为理解人工智能参与公共决策对公众信任的影响,提供了有益借鉴,但不足之处同样值得重视。首先,公共管理领域缺乏对相关问题的定量探讨。虽然部分研究初步讨论了使用人工智能技术进行公共决策时的信任问题,但这些研究主要是从质性分析的角度进行探讨,对影响信任的因素以及相应作用机制的理解还不够深入。如果公众不信任有人工智能参与制定公共决策,很可能会影响到政府部门的治理效能,甚至进一步影响政府的合法性。[20]因此,进一步厘清这一问题十分必要。其次,缺乏对决策本身特征的关注。已有研究主要从人工智能的技术属性和公众自身的个体特质两个方面,探讨了影响公众对人工智能信任的因素,但是对于决策本身特征的关注还不足。实际上,任务本身的类型、复杂程度等特征,也可能会对公众信任产生影响。[25]

三、研究假设

根据李敏京(MinKyungLee)的研究,可以把决策分为:(1)满足人工智能技术的IF-THEN类型规则体系,更多需要“机械”技能,如处理定量数据以进行客观测量或规则清晰的定量决策;(2)决策时更注重价值平衡和更具灵活性的,更多需要人类仍然占优势地位的技能如主观和直观判断、理解和情感表达以及浏览社会细微差别的定性决策。[13]相关研究指出,对于不同的公共决策类型,当由人工智能技术进行决策时,公众在信任程度方面会存在显著的差异。[26]

我们预期,对于定量型决策,公众会更倾向于信任人工智能参与制定决策。有研究认为,人工智能善于处理简单和重复性的任务,[27]擅长解决边界清晰、具有良好结构性(模块化或“可分解”)的问题,因而其提出的解决方案或制定的决策也具有标准化的特征。[28]Lee的研究指出,对于“量化”任务,如基于预测客户数量的工作安排,算法和人类被认为是同等公平的。[13]肯·帕里(KenParry)等人的研究也表明,在低复杂性决策方面,人工智能用可计算的标准实现了一些定量目标,制定的决策已经超越了人类。[29]据此,本文认为,对于规则清晰、主要涉及定量运算的公共决策,即涉及有限数量变量且相对无争议的量化任务,公众将倾向于信任由人工智能技术决策。在这些情况下,人工智能可以快速、准确地制定决策。这就引出了下面的假设:

假设1:对于定量型的公共决策,由人工智能制定的决策更可能获得公众信任。

在涉及更高程度的模糊性和不确定性的决策活动中,无法将决策过程简化为一个明确的目标函数来描述,这就需要决策制定者在决策过程中综合运用判断和直觉等能力,通盘考虑所有因素并做出更为复杂的判断。[30]显而易见,人类在这方面的优势更明显。[27]尽管实践中都是从技术角度提升人工智能的性能,但其抽象思维和界定问题的能力依然不如人类,因而应适当要求人工智能和人类在决策中进行分工。[28]类似的观点也得到了其它研究的印证,Lee认为,对于涉及情绪和人类交互的任务,人类决策者比人工智能更受青睐。[13]穆罕默德·侯赛因·贾拉希(MohammadHosseinJarrahi)也指出,解剖复杂社会系统迷宫的责任往往不在人工智能的能力范围内。[31]因此,人类在理解模糊决策情况下错综复杂的社会和政治动态方面继续享有比较优势,这为由人类进行决策提供了独特的位置。据此,我们预期,对于规则不明、涉及主观判断的公共决策,由人类进行决策将得到社会公众的更多支持。由此,我们提出:

假设2:对于定性型的公共决策,公众将更倾向于信任由人类决策制定者制定的决策。

四、研究方法与设计

1.研究方法

近年来,实验法因其控制无关变量的独特优势,受到了越来越多公共管理学者的追捧。对此,有研究认为,实验法的显著优势在于可以通过随机化的实验操纵排除无关变量干扰,从而观察到自变量对因变量的“净效应”。[32]因此,相较于其他研究方法,实验法被认为是探讨因果关系的最有效方法,是因果推论的黄金法则。[33]

从类型上看,实验可分为实验室实验、问卷(调查)实验、现场(田野)实验、自然实验和准实验等五类。[34]本研究中采用了第二种问卷实验。问卷实验作为一种科学、严谨的研究方法,主要是在实验设计中采用问卷调查的形式来呈现实验刺激材料,发现社会现象之间的因果联系,帮助学者探寻实验对象的本质。问卷实验同样包含实验设计的基本要素,即由研究者操控的外生性干预和对被试的随机化处理。[35]问卷实验通过向被试呈现不同的问卷版本进行实验操纵,被试随机得到一种版本的问卷并作答。和其它实验类型相比,问卷实验虽然对环境的控制较弱,但由于发放问卷具有简单易操作的突出优势,因而在公共管理实验研究中得到了广泛使用。[36]

2.研究设计

本研究建立在Lee[22]和Nagtegaal[8]的基础之上,但是将研究扩展到了公众对公共决策的信任方面。在研究中,本文进行了两项实验。实验1采用的是受试者间设计,并以3所学校公共管理学科的本科生为样本,探讨了公众对于由人工智能技术参与两种不同类型的公共决策的信任问题。实验2是作为实验1的复制而设计的,但使用了受试者内设计,这使本文能够评估在多种类型决策主体并列的情况下,公众对人工智能技术参与公共决策的信任情况是否会与实验1的结果不同。同时,实验2选用的是Credamo网络问卷平台的用户作为样本,因此能进一步对实验1中得出的结论进行检验,从而增强研究结论的外部效度。

本研究中设定的定量型和定性型公共决策分别是个人所得税计算和司法判定。个人所得税的计算是由法律决定的,相应的规则比较明确,因此主要涉及的是定量计算。而司法判定是一项较为复杂的公共决策实践,涉及到的因素众多,并且一定程度上还需要结合实际问题进行价值判断与分析,属于定性决策。

根据当前公共决策当中常见的三种决策制定主体,即人工智能技术、人工智能技术+公共管理者、公共管理者,以及定量决策和定性决策两种不同公共决策类型,实验1设计了一个随机分组3*2混合设计实验,并总共将形成3个实验组分别代表当前在公共决策当中的三种常见决策方式。[8]根据研究主题,我们的因变量是信任,使用直接测量的方式。如“你信任上述决定公众个人所得税的方式吗?”受访者可以在7分李克特量表上从1(“完全不信任”)到7(“完全信任”)中选择一个数字。最后,我们要求参与者在一个开放式问题中解释他们评分的原因。根据实验设计,最终测量得到6组信任值(Tr),如表1所示。实验结束后,对测量结果进行描述统计,检验独立样本T、配对样本T,进行定性分析等,检验与分析使用人工智能进行不同的公共决策,对于公众信任程度的影响。

表1双因素被试间实验设计

实验1中的被试为3所大学公共管理相关专业的本科生。他们随机得到三个版本问卷中的一个。参与调查的被试者首先被问及一些关于人工智能及其应用的相关问题,如是否了解人工智能、使用经历等。其次被要求根据实验设定的定量型公共决策场景,判定对不同决策主体所做的公共决策的信任程度并说明原因。再次,被要求在实验设定的定性型公共决策场景下,重复上述过程。最后,设计了检测题项“根据你阅读到的上述材料,是由()决定个人所得税和进行司法判定?”,来检验被试是否真正接收到了上述实验干预信息。实验流程见图1。

图1实验1流程图

作为对实验1的重复和检验,本文进一步设计了实验2。在实验场景设定上,实验2中使用了和实验1相同的两种公共决策场景,以确保研究的严谨性。在研究设计上,实验2采用了将决策主体并列的方式,让被试对由3种不同决策制定主体(人工智能/人工智能+公共管理者/公共管理者)做出相同公共决策的信任程度,分别进行评分。具体的操作上,同样采用的是直接测量的方式,让被试在7分李克特量表上回答“你觉得你在多大程度上可以信任由下述方式来决定个人应缴纳的所得税/进行司法判决?”。实验2流程如下图2所示。此外,考虑到以大学生作为实验被试可能会存在样本的代表性问题,因此在实验2的被试选择上,本研究通过Credamo网络问卷平台选取了200名被试,以进一步对实验1的研究结论进行检验。

图2实验2流程图

五、研究结果

1.实验组平衡检验

为检验实验1中各实验组是否符合随机性要求,需要对各组被试的性别、对人工智能的了解程度、人工智能的关注度和使用体验等因素进行平衡检验(BalanceTest)。数据分析结果显示,各实验组被试的上述因素,在0.05的水平上不存在显著差异。以上平衡检验结果表明,本实验对被试的抽样符合随机要求,具有良好的均衡性,能很好地避免系统误差。平衡检验结果见表2。

对于实验2,本研究统计了各被试的主要人口统计学因素如性别、年龄、受教育程度、年收入等,结果如下表3所示。

表2实验组平衡检验结果

表3受访者相关统计信息

2.信任感知差异检验

在实验1中,本文以不同公共决策类型为主体内因素,以不同类型决策方式为主体间因素,使用SPSS24.0的混合方差分析功能分析了不同公共决策类型与决策方式的交互作用,结果显示,二者的交互作用显著[F(2,137)=19.128,p=0.000

对于定量型公共决策个人所得税计算,方差分析的结果显示不同实验组之间,在信任程度方面具有显著的差异[F(2,137)=16.669,p=0.000

图3不同实验组公众信任比较

对于定性型的公共决策司法判定,方差分析的结果显示不同实验组之间,在信任程度方面有显著差异[F(2,137)=10.717,p=0.000

对于实验2,即受试者内复制实验,双向重复测量ANOVA表明公共决策类型和决策主体间存在显著的交互作用(F=520.566,p=0.000

对于定量型公共决策场景个人所得税计算,结果显示在不同决策主体情况下,公众的信任程度有显著差异。其中,在由人工智能技术作为决策主体的情况下(M=5.64,SD=0.665)与由公共管理者作为决策主体的情况下(M=4.35,SD=1.065)(p=0.000

图4实验2结果图

3.公众信任度差异原因分析

上述数据分析结果表明,对于定量型公共决策,公众认为由人工智能参与决策的信任度更高。而对于定性型公共决策,公众认为公共管理者和人工智能共同制定决策的信任水平更高。我们尝试从开放性问题中做一个概要的定性讨论,以作解释。

首先,对于定量型公共决策,由人工智能单独制定的决策,比由人类制定的决策,具有更高的信任程度。因为人工智能算法被认为是客观的,其计算结果也更准确,而公共管理者则被视为是主观的,其计算也很有可能会出现错误。这一观点得到了实验被试的支持。较多被试均指出,人工智能算法具有准确、客观的特征,因此出现差错的概率比较小。如有的被试提到“由计算机计算个人所得税误差或歧义比较小,每个人的个人所得税都走相同的程序”,因此“按设定的程序计算就很公平”。与此相反,“计算机计算不带有主观因素”,而“有时候人会带有主观色彩”,因此“不能实现完全公平”。

另外,和公共管理者独立制定决策比较起来,公众也更加倾向于青睐由人工智能和公共管理者协同制定的决策。这也可以从被试的回答中找到依据。例如,有被试回答到,“人工智能和人的判断相结合,可以实现理性和感性的结合,有利于减少失误。”“计算机计算的数据相对准确,加上政府部门人员根据实际情况进行判断,使得结果更加可信”。类似的回答还有,如“计算机算法数据精准,方便快捷,再加上工作人员基于现实的判断,二者结合使得结果更加可信。”“计算机的算法比较客观,政府部门工作人员可以用客观数据来调整个人的主观判断。”

对于定性型公共决策,公众认为由公共管理者参与制定的决策,比由人工智能单独做出的决策,具有更高的信任程度。这是因为定性型公共决策的决策过程需要考虑的价值平衡、规则等因素较多,这就更加依赖于人类所特有的情景判断等能力。正如被试在回答中提到的一样,“司法判定存在错综复杂的关系,不好用计算机程序设定”,“计算机没有独立的思维,程序运行相对较为死板,没有或几乎很少能根据实际情况来断定”。另外,还有很多被试提到,“司法判定是道德与法律并存的,有时候不是计算机就能做出裁断,需要考虑人道主义因素”,“人工智能在情感上与人类相比,还是差点的,而司法判定不仅要依靠法理,也需要人情”。这启迪我们,在涉及情感判断等人类所特有的特征时,人工智能技术相对于公共管理者具有天然的劣势。

六、结论与讨论

作为人工智能技术最重要的应用之一,人工智能技术逐渐开始在复杂、日益多样化的环境中扮演半自治甚至完全决策者的角色。[37]但与此同时,争议也从未间断。这在强调公平正义的政府部门决策中体现得更为明显。这种争议推动本文对于人工智能参与公共决策的公众信任问题进行研究,并试图通过调查实验的方法、采用定量定性相结合的方式,对相关问题进行实证探讨。本文认为,探讨这个问题是十分有价值和必要的,因为这关系到公共决策的合法性和公众的接受度。

本文的研究结果表明,人工智能参与公共决策对于公众信任的影响,会因决策的类型而有所区别。具体而言,对于定量型公共决策,公众认为由人工智能进行决策(无论是独立还是与公共管理者协同),其信任程度较高。这表明,对于较多涉及定量计算或者规则比较明晰的定量型决策,公众更倾向于信赖人工智能,因为它被认为是客观无偏的,能够保证所有人都受到公平的待遇,而如果由人类做出决策,则有可能会因主观偏见或者计算误差等,导致决策的不公平。对于定性型公共决策,相对于人工智能单独做出的决策,由人类参与制定的决策(人类单独做出或者与人工智能共同做出),具有更高的信任水平。这种差异可以归因于这样一种信念,即人工智能不能处理涉及和依赖人类技能的实践,例如同情心和创造力。公众认为这些因素很难衡量。因此,本文认为在定性型的公共决策中,人工智能只适宜成为公共管理者的决策伙伴,而不是成为他们的替代者。[38]

本研究的启示在于,要积极探索与推动人工智能技术在公共决策中的应用。首先,对于规则清晰、问题界限明确的定量型公共决策,应该积极探索自动化决策(无论是替代人类还是辅助人类)的可能,发挥人工智能算法运算快速准确、公正客观的优势,既避免人为决策的主观性和可能出现的错误,又有效地将公共管理人员从这些耗时耗力的常规性决策中释放出来,以从事更有价值性和创造性的工作。[11]其次,对于涉及人类特有的情景判定、情感交互、价值判断与平衡等特征的定性型公共决策,虽然由人工智能取代公共管理者进行决策并不可取,但是将其纳入公共决策过程,协助公共管理者进行决策,同样具有极大价值。正如有的研究者提到的,在以不确定性、复杂性和模糊性为典型特征的决策过程中,“凭借更大的计算信息处理能力和分析方法,人工智能可以在解决复杂性时扩展人类的认知,而人类仍然可以在组织决策中提供更全面、直观的方法”。[31]

本研究的不足也同样值得关注。首先,本文使用调查实验的研究方法,其优点是可以控制被试基于同样的情景做出判断,缺点则是被试需要假想身处相应的情境,这在一定程度上增加了研究效度受损的可能性。[39]其次,本文对于公共决策类型的划分以及相应实验场景的设定,一定程度上是根据自身的判断,因此可能会导致研究的严谨性受损,同时也有可能使得研究结论在推广上有一定的局限性。最后,本文只从决策类型的角度,探究人工智能参与公共决策对公众信任的影响。但事实上,人工智能技术参与公共决策,无论是对于公众的信任还是政府的采纳,需要考虑的因素很多,这是本文力所不逮的。

今后,围绕人工智能和公共决策这一话题,还需对以下问题展开研究:第一,从定性讨论、定量论证等角度出发,研究目前人工智能参与公共决策存在的合法性、有效性、公平性、可责性等问题,提出切实可行的解决方案。第二,针对人工智能参与公共决策制定,对公众其他方面的感知(如公平、程序正义等)的影响,进行更多维、全面的实证研究,并据此为公共管理者提供切实可行的实践建议。第三,针对人工智能可能在公共决策中扮演的三种角色——支持、增强以及完全替代,探讨其适用场景及其相应的边界,即厘清哪些场景更适合完全由人工智能进行决策,哪些场景人工智能只能作为人类决策者的决策辅助。

参考文献

END

人工智能的影响论文

人工智能的影响论文

人工智能技术在服务业、教育领域、军事领域的应用已经初现端倪,发展前景大好,今天我们就一起来看看人工智能的影响论文吧!

人工智能的影响论文:

内容摘要:人工智能作为20世纪以来发展极为迅速的一个学科领域,其对社会的影响也越来越引起人们的重视。本文试图从STS的角度着重说明人工智能对人类的经济利益、社会和文化生活等方面的影响。

关键字:人工智能、经济利益、社会和文化生活

人工智能,也称机器智能,它是计算机科学、控制论、信息论、神经生理学、心理学、语言学等多种学科互相渗透而发展起来的一门综合性学科。人工智能的研究及应用领域包括问题求解、逻辑推理与定理证明、自然语言理解、自动程序设计、专家系统、机器学习、人工神经网络、机器人学、模式识别、机器视觉、智能控制、智能检索和智能调度与指挥等等。自人工智能出现以来,科学家们在这些领域的研究已经取得了非常惊人的成果,同时,这些人工智能研究成果也证明了在某一特定方面计算机可以超越人的能力。人工智能的发展已对人类及其未来产生深远影响,这里我们抛开其对科学技术发展中的作用不谈,从STS的角度着重说明这一技术对人类的经济利益、社会和文化生活等方面的影响。

一、人工智能对经济发展的促进

人工智能系统的开发和应用,已为人类创造出可观的经济效益。科学家要发展人工智能技术是需要很大的投入的,咋看起来不仅没有促进经济的发展,反而是在大量消耗着资金。其实,在当今时代,技术的发展是以人类的意志为转移的,人类开发人工智能最主要的目的还是要为人类服务,当然经济利益的回报,无疑是最直接最有效的,尤其是对企业而言,如果这个技术能为其带来高额的经济利益,那无疑会得到优先的发展。人工智能对经济的促进作用不单是对个别企业和行业,随着计算机系统价格的继续下降,人工智能技术必将得到更大范围的推广,产生更大的经济效益。专家系统的应用就是一个很好的例子。

一般的说,专家系统是一个智能计算机程序系统,其内部具有大量专家水平的`某个领域的知识与经验,能够利用人类专家的知识和解决问题的方法来解决该领域的问题。①也就是说,专家系统是一个具有大量专门知识的系统,它应用人工智能技术,模拟人类专家的决策过程,以解决那些需要专家决定的复杂问题。

成功的专家系统能为它的建造者、拥有者和用户带来明显的经济效益。用机器执行任务而不需要有经验的专家,可以极大地减少劳务开支和培养费用。由于软件易于复制,所以专家系统能够广泛传播专家知识和经验,推广应用数量有限的和昂贵的专业人员及其知识。而且如果保护得当,软件能被长期地和完整地保存,并可根据该领域知识的发展及时更新。

专家系统在比较专业的领域有着十分光明的前景,比如医疗领域。即使是很专业的①蔡自兴,徐光佑。人工智能及其应用。清华大学出版社。2003年9月

医生也难以同时保持最新的治疗方案和方法,而专家系统却能迅速地更新和保存这类建议,即提高了医院的经济效益,也让病人可以得到最好的治疗。

虽然现在的专家系统仍然只能是局限于某些领域,而且由于没有固定的算法,还要在不完全、不精确或不确定的信息基础上作出结论,准确性还有待保证。但是随着人工智能的发展,专家系统也在不断完善,相信将来这项技术就可以大规模,有可靠的应用在许多领域,可以让最多的人享受到最好的服务。

二、人工智能对文化生活的影响

同时,人工智能也对人类的文化生活产生了深刻的影响。比如劳动就业方式的改变、社会结构的改变、以及思维方式的变革等等。

首先,在劳动就业问题上矛盾将会比较突出。由于人工智能能够代替人类进行各种脑力劳动整个社会的劳动效率将会有极大地提高,但同时也会使一部分人不得不改变他们的工种,甚至造成失业。尤其是人工智能在高科技和工程中的应用,会使一些高级人才也失去介入信息处理活动的机会,甚至不得不改变自己的工作方式。如果不能很好的处理人工智能和人类的合作关系,技术的进步不仅不会给人类带来福音,带来的反而是人类对自身价值的否定。

其次,是社会结构的变化。人们一方面希望人工智能和智能机器能够代替人类从事各种劳动,另一方面又担心它们的发展会引起新的社会问题。实际上,未来的社会结构将会由“人――机器”的社会结构,发展为“人――智能机器――机器”的社会结构。现在和将来的很多本来是由人承担的工作将由机器人来担任,因此,人们将不得不学会与有智能的机器相处,并适应这种变化了的社会结构。

再次,是思维方式与观念的变化。人工智能的发展与推广应用,将影响到人类的思维方式和传统观念,并使它们发生改变。例如,传统知识一般印在书本报刊或杂志上,因而是固定不变的,而人工智能系统的知识库的知识却是可以不断修改、扩充和更新的。又如,一旦专家系统的用户开始相信智能系统的判断和决定,那么他们就可能不愿多动脑筋,变得懒惰,并失去对许多问题及其求解任务的责任感和敏感性。那些过分依赖计算器的学生,他们的主动思维能力和计算能力也会明显下降。过分地依赖计算机的建议而不加分析地接受,将会使智能机器用户的认知能力下降,并增加误解。因此在设计和研制智能系统时,应考虑到上述问题,尽量鼓励用户在问题求解中的主动性,让他们的智力积极参与问题求解过程。

当前的“NetGeneration”也是计算机与互联网对人类文化及发展的影响的例子。“NetGeneration”这一代人是精通互联网的一代,他们沿着科技进步的轨道,在日常生活的许多领域都超越了父辈,并且相信他们自己更能促进时代的快速发展。在人类教育过程中,这一代的思维模式及教育方式对以往的文化、价值观教育模式都有着很大的冲击,同时也对人类的社会进步、经济发展和文化提高都有巨大的影响,随着时间的推进和技术的进步,这种影响将越来越明显地表现出来。

三、人工智能带来的社会担忧

人工智能在给它的创造者、销售者和用户带来经济利益的同时,就像任何新技术一样,它的发展也引起或即将出现许多问题,并使一些人感到担心和忧虑。美国科幻作家阿西莫夫1950年在《我是机器人》中提出了“机器人三守则”,即(1)机器人必须不危害人类,也不允许它眼看人类受害而袖手旁观。(2)机器人必须绝对服从人类,除非

这种服从有害于人类。(3)机器人必须保护自身不受伤害,除非为了保护人类或者是人类命令它作出牺牲。虽然这只是科幻作家的希望与理念,但是在人工智能及认知科学研究中,这样的守则也映射出人们对人工智能研究的期待与要求。

针对人工智能和人类的关系问题。出现了这样的疑问:“谁将是未来地球上的支配物种,人工智能机器还是人类?”针对这一问题,也出现了两种不同的声音,即宇宙主义者和地球主义者。支持制造人工智能机器的集团,称之为“宇宙主义者”(Cosmist),宇宙主义者认为,人工智能机器如果被制造出来,它们迟早会发现人类是如此的低等,像一个有害物,从而决定来灭绝我们,不论以什么样的理由。因此,宇宙主义者已经准备接受人类被灭绝的风险。宇宙主义者试图去最求整个宇宙的利益最大化而抛弃人类自身的重要性,这是一种很理想又伟大的自我牺牲精神,但是牺牲的结果如何,可能他们自己也不知道。

与此相反,强烈反对制造人工智能机器的集团,称之为“地球主义者”(Terran),他们反对人工智能的开发,因为他们担忧,人工智能的发展必定会发起对人类的清洗,从而导致人类的灭亡,这样的结果是这群人类中心主义者所无法接受的。

现在的人工智能技术还远没有达到上面所讲的程度,但是随着它的发展,人和智能机器人的关系必定会是人类需要解决的问题之一。同时我也认为人工智能的一些影响,在现在是看不到的,也可能是我们现在难以预测的,但不管这种影响是积极的还是消极的,可以肯定,人工智能将对人类的物质文明和精神文明产生越来越大的影响。

【人工智能的影响论文】相关文章:

人工智能学术论文范文10-03

人工智能专家系统论文09-30

明代家具影响下的现代家具设计论文论文01-07

语文教育对外语学习的影响论文08-25

智能家居对现代家具设计的影响论文01-12

揭秘理财险对个人投资的实际影响论文01-07

文化创意产业对视觉传达设计的影响论文01-12

科技进步对档案保护技术的影响论文09-05

影响医德档案管理因素分析论文11-08

明式家具对现代家具设计的影响分析论文01-07

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇