博舍

机器人有自主意识后会带来风险吗 人工智能有了自主意识带来的危害有哪些方面

机器人有自主意识后会带来风险吗

来自美国哥伦比亚大学创意机器实验室的HodLipson,研发出自我建模的仿生群体“粒子机器人”,这种机器人未来将可能拥有创造力和自主思考能力。

“一个真正的粒子机器人可能会由成千上百个粒子组成,即便其中20%的粒子坏掉,也仍然可以继续运作。”HodLipson强调,“我们认为它带来的好处将会远远超过它的风险。”

11月2日,在腾讯WE大会开始前,机器人研究权威专家HodLipton接受了动点科技等媒体的专访。

未来机器人会有自主意识吗?

“这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。”对于机器人在未来会不会有自主意识的问题,HodLipson给出了他的答案。

HodLipson认为:“自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”

HodLipson在研究中发现,机器人可以感知情绪,伪装情绪,但机器人能否真正的拥有清秀,拥有自我意识还是一个值得大家在现在以及未来需要不断探索的事情。

近期几乎所有机器人学的成果,都是通过模拟进行学习。而机器的模拟是由工程师创造出来的。关键在于,机器人能否自己获得自我模拟的能力。

科技向善该如何引领未来机器人?

“作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。”HodLipson说。

在谈到科技向善如何引领未来机器人时,HodLipson给出了他的答案。HodLipson经常讲数据向善。他认为,把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用。

确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情。

在HodLipson看来,他乐观地相信人类作为一个整体会做出正确的决定。责任编辑;zl

人工智能有 “ 法律人格 ” 吗

人工智能在社会各领域的深入应用带来了诸多法律问题,如人工智能可否作为法律上的主体?人工智能生成物是不是作品?人工智能驾驶责任如何分配?这些问题可归结到一点予以诠释——人工智能是否有“法律人格”?

人工智能法律人格问题的实质。法律人格,是指法律认可的一种享受权利、承担义务的资格。通俗地说,若人工智能成为了法律上的“人”,其就拥有了享受权利的可能,比如受到尊重、不被随意破坏打骂等身份方面的权利,以及著作权、收益权等财产方面的权利;若人工智能成为了法律上的“人”,其也须对自身行为负责,要有独立承担责任的能力,不能损害他人自由,不得侵犯他人财产及人身,否则会受到法律的制裁。相反,若人工智能不是法律上的“人”,其权利和责任将无从谈起。也就是说,法律人格是享有权利和承担责任的前提。

目前对此问题的讨论,大致可以归结为三种观点:一是肯定说(主体说),即认为应当承认人工智能具有法律人格,但应同时明确其法律人格的有限性。如有学者认为,人工智能有独立的意识和意志,具备了法律主体资格条件。二是否定说(工具说),该观点主张人工智能仅仅是人类的工具,不是具有生命的自然人,也区别于具有独立意志并作为自然人集合体的“法人”,且目前发展水平不足,不具备主体资格要件,因而尚不足以取得独立的主体地位。三是具体说(区分阶段说),该观点认为人工智能法律人格问题的研究必须区分具体阶段,也就是将人工智能大致划分为弱人工与强人工两个阶段,弱人工时期的人工智能主要是单一方面具有人类造诣的功能型机器,仍然是人类的辅助工具,不具有法律人格;而强人工时代的人工智能具备独立意志,拥有综合智能元素,并能脱离人类控制自主行为,应当赋予其相应人格,同时明确其法律人格具有特殊性,区别于自然人人格与法人人格。如同法人区别于自然人没有名誉权一样,人工智能区别于自然人,也不具有结婚、生育等权利能力,当然这仅限于当前人工智能所处的发展阶段。

实际上,随着人工智能科技的进步及机器学习能力的逐步增强,人工智能自身的主体能力也在不断充实、发展与成熟。如果把弱人工时代比作人工智能发展的婴童阶段,强人工时代则相当于人工智能发展的成年阶段。与之相对应,法律是因应社会的发展变化而不断发展完善的,“法律人格”的内涵也在随时代更迭不断被赋予新的内涵,其外延当然亦随之扩展。从自然人格演进史、动物及无生命体的人格制度史来看,法律主体的范畴极具包容性。因此,法律的发展应当结合时代和技术的具体发展水平。就目前人工智能的发展水平而言,还处在弱人工时代,人工智能仍然是辅助人类工作的工具,尚不足以赋予其法律人格。而如果有一天,当我们进入人工智能发展到具备自我意识乃至自由意志的强人工时代,这一问题可能会有不同的答案。

人工智能生成物的权利归属。目前人工智能已可以进行自行写作、作曲、作画、撰写新闻报道等,随之而来的问题是,诗歌、画作、歌曲、新闻稿等这些人工智能生成的内容是不是著作权法上具有独创性的作品?如果是作品,其权利归属于人工智能还是人?如果权利归属于人,是归属于人工智能的所有者、使用者、设计者抑或是其他主体?由此,人工智能生成物面临的法律问题主要是生成物的法律定性及其权利归属。对此问题,学术界已经有了一些研究成果,但争议激烈、莫衷一是。如有学者认为,人工智能能够自主学习、自主创作,其生成内容具有独创性,著作权应归属于机器人所有。对此,反对者则认为,权利若为机器人所有,该权利如何行使、由谁行使缺乏可操作性;也有学者认为,机器人是程序员设计出来的,应当由设计人员享有;还有学者认为,应借鉴单位作品制度,由机器人和设计人员共同所有,等等。

事实上,当前人工智能按照功能差异,如人类社会职位分工一样,一般都会朝向不同领域、行业分化为专业性非常鲜明的功能型人工智能,虽然不具备综合性主体能力,但在某一领域是有赋予其相应能力的空间的。例如,医疗机器人、法律机器人、写作机器人等,对应可以赋予其为实现医疗工作的权利、为实现法律工作的权利、为实现写作方面的权利。

人工智能侵权的责任承担。人工智能迭代式的发展,使得汽车自动驾驶、医疗机器人、无人机等技术进一步解放了人类劳动,同时带来的问题也层出不穷。在利用智能机器引发的医疗事故、自动驾驶的交通事故、无人机误判等问题上,如何对相应责任进行认定与归结,谁来为人工智能的行为负责?有观点认为,责任分配应结合机器人致损的具体情况分析,一是人为操控智能系统导致损害,如黑客、病毒等人为因素侵入互联网,进而控制智能机器人导致的损害,应当由背后的操控者承担责任;二是因智能系统自身缺陷造成损害,如果是使用者过失,则由使用者承担责任,如果是智能系统漏洞或者是人工智能超越控制的“自主行为”,应由受益者或社会承担替代责任。这一观点在现阶段是有其合理性的。

但如果到了强人工智能时代,以算法程序、代码规则这些无机神经网络具备思维与决断能力的“人造人”,同以神经元形式而具备独立意志的人类一样,都是拥有自由精神的实体,他们都有能力脱离自我之外其他实体控制独立实施有意识与有意志的行为,那时如果仍要求人工智能背后的人类为其承担责任将不再合理。到那时,人工智能享有权利(如著作权),其可以通过自己的劳动获得财产。此外,按照由受益者负担风险的原则,可由受益人或社会设立基金或投保方式为人工智能承担责任。

综上所述,在认识人工智能“法律人格”这一问题上,必须结合科学技术的发展阶段进行实事求是地分析。可喜的是,这一问题已得到国家层面的重视,国务院发布的《新一代人工智能发展规划》,明确了要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,这为促进人工智能健康快速发展打下了坚实的法治基础。

人工智能技术给教育行业带来哪些主要影响?

现如今,人工智能技术对社会各个领域日益产生深远的影响,教育领域也不例外。在这一领域,人工智能技术的进步为教学和学习带来了新的可能性和挑战,甚至有可能从根本上改变教育治理和教育机构的内部架构。人工智能技术虽然会对教育行业产生影响,但绝对不会像线上电商颠覆传统零售那样剧烈。从目前情况来看,人工智能技术对教育的影响主要体现在以下几个方面:

人工智能技术可实现“个性化”教学

人工智能技术影响教育的关键方法之一,是为学生提供个性化学习。通过自适应学习程序、游戏和软件等系统响应学生的需求,全过程搜集学生的学习数据,通过分析这些数据,最后向学生推荐个性化的学习方案。尤其是基于人工智能的自适应学习系统,帮助学校和老师提供个性化的教学,同时帮助学生提高学习效率,激发学习兴趣。

以中国“科大讯飞”为例,目前主要通过三个步骤打造以学生为中心的课堂,实现个性化学习:首先对每一个学科,构建学科知识图谱;然后通过学科的知识图谱分析每一位学生的学习情况,让每一位学生的学习情况可视化;最后给相应学生推荐个性化的学习资源。人工智能赋能之下,学校实现了个性化教与学,课堂得到有效延伸;通过师生的共同努力,在教学质量上实现突破。

人工智能技术可重复学生没有掌握的内容,并且帮助学生按照自己的节奏学习,比如美国“可汗学院”可根据每个人的学习状况自主设计学习进程。这种定制教育可帮助不同学习水平的学生在一个教室中一起学习,教师可在需要时促进学习并提供帮助和支持。该学院下一个目标是,在未来的几年内制作出从幼儿园到高中的所有课程,以及部分大学课程,如计算机科学和电子工程等。每个人学习的处境和内容不同,所以我们不仅要因材施教,而且要因时、因地施教。而基于人工智能技术建立促进个性发展的教育体系,是未来教育发展的基本趋势。

人工智能技术可为学习提供指导

智能辅导系统能够理解学生喜欢的学习方式;它们还能够衡量学生已有的知识量,所有这些数据和分析都用于提供专门为该学生创建说明和支持。试验和错误是学习的关键部分,但对于许多学生来说,错误的答案会给他们挫败感,有些学生不喜欢在同龄人或老师等权威人士面前犯错,而人工智能技术可为学生提供在相对无判断的环境中进行试验和学习的方法,人工智能“导师”还可提供改进的解决方案。人工智能技术将促进教育决策的科学化和资源配置的精准化,加快形成现代化的教育公共服务体系。目前在学校的实际运用中,人工智能技术所收集的数据可为现代教育治理提供决策辅助。人工智能助手可扮演老师、辅导员、同学等虚拟人物,它们可从不同的视角,提出问题,并提供指导。

人工智能技术不仅能让学生定制课程与学习进度,还能及时为学生提供反馈;当发现学生向系统提交错误的家庭作业答案时,系统会向教师发出警报,并为学生提供正确答案的提示。这种类型的系统有助于填补课程中可能出现的空白,并有助于确保所有学生都能掌握知识,让学生立即得到反馈,帮助他们理解概念的内涵和外延。现在一些基于人工智能技术的辅导课程已经存在,这可帮助学生完成基础数学、写作和其他科目的基础知识。利用智能化的教学系统,人工智能技术也可持续的为学生提供支持和辅导,帮助他们克服困难,更快的完成学习计划及目标。

人工智能技术可改变学习方式

使用人工智能系统,学生可随时在世界任何地方学习,学生根据自己的需要安排学习时间。通过人工智能技术,学校可创建全球化的教室,学生所处的位置将不再重要。学生如果由于某种原因无法参加课程,则通过访问链接,点击该链接,加入现场教室。人工智能技术还可将全世界的学习者联系在一起,超越教室的墙壁,与其他学生、教师、作家、科学家等互动,以加强他们的学习效果。人工智能技术可促进合作学习,通过比较学生的学习者模型,而后建议处于相似认知水平或具有互补技能的参与者互相帮助,并通过分组来支持协作学习。教育最大的挑战之一是每个人的学习方式不同,人工智能系统可为每个学习者提供个性化的学习方式,使每个学生能够以最适合自己的方式学习。

英国数学家和教育理论家阿弗烈·怀特海先生在《教育的目的》一书中指出:“学生是有血有肉的人,教育的目的是为了激发和引导他们的自我发展之路。”对学生而言,人工智能技术可为学生提供一对一的辅导,真正实现了因材施教;也可打破时空的壁垒,加强学习者的交流与互动。对教师而言,“师生的交往活动是教学过程中的本质属性。”人工智能技术可减轻其重复性工作,使其有更多的时间与学生交流,培养他们的各种技能,帮助他们日后更好地融入社会。基于对学生的洞察力,人工智能技术会自动创建一条个性化的学习路径,以确保学生能够以尽可能好的方式学习并取得成功。

仅从以上三个方面可见,人工智能技术给教育带来较为显著的正面影响。然而,该技术在给教育带来有利因素的同时,也会存在相应的挑战。在人工智能技术渗透进入传统教育领域带来优势的同时,也会引发一些问题;例如人工智能技术的出现可能会导致学生被动接受已经安排好的知识,而丢失主动分析、思考的能力;也有人担心人工智能技术为教师做了太多,教师的教学水平可能会因为人工智能技术的出现而有所下降。因此,要充分认识人工智能技术的优势和它可能存在的问题,做到趋利避害,真正使人工智能技术发挥育人的作用。正如中国教育家周仪荣先生所言:科技是一把双刃剑,在它给人们带来美好的同时也带来一些麻烦;因此要合理利用科技,发挥它有利的一面,限制它不利的一面,是提高教学质量的有效途径之一。 

 

人工智能的自主性与责任

一、简化了的

“人工智能自主性”

人工智能机器人通常也被称为自主机器人,许多哲学研究认为,目前的人工智能可以称得上是自主的能动者,甚至一些哲学家认为非人类的自主能动者本身就能够承担责任,而非由其设计者或使用者承担责任。笔者认为,“人工智能是自主的”这一观点不够严谨,随之而来的“人工智能是独立责任承担者”的观点值得商榷。这些观点的背后缺少对自主概念的追问。

自主(autonony)概念一般应用于人类,被理解为“个人根据自己的理智推断和动机欲望主宰自己生活的能力,而这些理智推理和动机欲望都不是操控性和歪曲性的外部力量的产物”。自主的概念有两层含义:一是自我管理,另外一个意思为自我立法。实际上,笔者认为,自我立法是自主中更为重要的部分。作为自主理论研究的源头之一,康德认为,自主不仅仅意味着自由意志,同时也意味着自由意志服从于自己制定的道德法则。目前主流的自主理论也继承了康德的观点,认为自主并非仅仅是“自己作出决定”,更重要的是作出决定的过程完全处于能动者的统御之下。决定、行动与能动者对自身的权威紧密相连,它们的关系决定了能动者是否自主。

对于人类来说,自主选择所遵循的“权威”即“自我”。能动者必须认同他自己的决定,必须由他自己的决定而非其他权力促使他行动。一旦涉及自我认定,能动者就必须遵循一套完整的价值观念,来区分什么是“我”想要的,这就意味着人的自主与道德判断息息相关。一个人必须认定自己采取行动是根据对的判断和决定。个人的行动如果不符合其价值体系,通常会被判定为非自主的。例如,一个瘾君子在吸毒的同时深信吸毒是不好的,他不应该吸毒。但是,他无法抑制身体强烈的渴望,这驱使他吸食了毒品。显然,他在这个过程中不是自主的。如果他遵从内心的价值判断,选择不吸毒,那么,他才是自主的。在这个案例中,从信念到行动的转化失败了,能动者丧失了对自身的权威。

如果说人类的自主通常与道德相关,那么,自主概念实际上隐含了两种层次:一种是行动自主,另一种是道德自主。行动自主仅仅指因果关系上,如果一个人的意图成功地引发了他的行动,那么,他就是行动自主的;而道德自主探寻意图的成因,追问能动者是否遵循自己的内心。因此,道德自主是传统责任观的基础,也是法律判定的基础。

25.

Sep.

一个行动自主的能动者应当符合BDI(bliefdesireitention)模型。自主是一个与行动相关的概念。能动者实践自主的过程从一个信念开始。如果这个信念与世界不符合,那么想要跟世界符合信念的想法就是欲望,通过欲望指向客体的就是意图,从而成功地改变世界,这就是BDI模型。根据这一模型,一个自主的能动者需要满足的条件包括:

(1)具备一个如实描述了环境中的事物的表征状态;

(2)具备一个驱动状态,明确描述了期望环境中的事物如何改变,

(3)具备实现它的表征状态和驱动状态的能力,当环境不能符合驱动状态的描述时,去改变环境。

佩蒂特认为,任何成功执行了这一模型的能动者都是自主的能动者,人工智能也不例外。由于大数据与深度学习的支持,第三代人工智能展现出了与人类智能相似的能力:能够自我归纳,从数据中总结出某些规律:能够自我学习,从而在遇到新情况、新问题时,根据经验和数据来灵活处理。这就意味着:人工智能在足够的数据支持下,能够独立地根据情景形成自己的表征状态、驱动状态和改变情景的意图,并且根据该意图采取行动,顺利实现BDI模型。从这个意义上讲,人工智能是自主的。

但是,这种“自主”指的是行动自主,仅仅等同于独立。佩蒂特对自主能动者的论证只实现了自我管理的层面。这种论证实际上简化了自主的概念,认为能够作出决定即自主,将逻辑推理和计算能力等同于人类的理智,将人工智能的目标与执行力等同于人类的欲望,从而认定人工智能是自主的。行动自主将自我立法的过程排除在外,仅仅考量了决策与行动的连贯性,是削减版的自主概念。

将“简化的自主”概念加诸人工智能,直接导致了“人工智能是独立责任承担者”的观点。哈格是这一观点的支持者,并且他提出了看似完整有说服力的理论。他认为,人类能够对自身行动负责任的原因与其说是因为人类真的具有意向性或自由意志,不如说是将能动性和责任作为一种属性附加于行动之上。他如此论断的原因在于,无论人类的大脑状态如何,意图和意愿在行动中都没有对物理世界真正产生影响,产生影响的只有行动。那么,既然责任是行动的属性,人工智能的行动也能够具备这种属性,只要人们接受将责任作为人工智能的属性,人工智能就是能够负责任的能动者,与人类无异。

哈格的这种论证并不是否定了意图的存在价值,而是认为人工智能的决定与人的自由意志的选择没有差别——至少是在BDI模型中毫无区别。他显然是赞同人工智能具备简化了的自主性,才会得出这样的结论。然而,将自主简化为行动自主,就不能完全支持能动者的责任认定。事实上,自主理论并非仅仅是要成功地实现从建立信念到行动的过程,更致力于排除在这一过程中威胁到自主的因素。这些因素在哲学描述中得到最多讨论的包括:强迫、上瘾和洗脑。一旦能动者被它们控制,能动者的行为后果就无需自己负责。值得注意的是,BDI模型排除了强迫和上瘾,但没有将被洗脑排除在自主的大门之外,就是说,一个成功实现BDI模型的能动者可能是被洗脑的,并不具备自主性,也不能对行动负责任。

因此,哈格对意图与世界关系的理解是有偏差的。即使意向性不影响真实世界这一点成立,何种因素削弱了意愿、意向与行动之间的联系仍然非常重要,这些因素真实地改变了世界,它们改变了本可能在世界中实际出现的事件。

回到对人工智能的讨论,即使人工智能具备了相当的决策能力,它们的决策程序仍然是由人类设定的。也就是说,人工智能的权威并非来自它自身,而是人类赋予的,它们是“被洗脑”的。一个以保护财产为目标的人工智能与另一个以保护人身安全为目标的人工智能在同样的情境下,可能会作出完全不同的决策。并且,它们不可能作出另外的选择。如果仅仅只有行动自主的支持,这两个人工智能造成的相应结果的责任,似乎更应当追问程序的设定者,而非人工智能本身。因此,在简化的自主下讨论人工智能的责任是不严谨的,更谈不上让人工智能成为独立的责任承担者。

因此,人工智能的自主性讨论不能仅仅采用建构模型的方式,BDI模型没能一劳永逸地解释自主性的问题,我们更需要将眼光放在使人工智能不自主的因素上,寻找人工智能自主性问题的实质——毕竟,一只黑天鹅就能够否定“所有天鹅都是白的”这一论断。

二、人工智能

自主性问题的实质

人工智能是由大数据驱动的,大数据赋子了人工智能在变化中应对复杂局势的能力,同时也奠定了人工智能作决策的基调:人工智能有作决定的能力,但是,没有在同一时间作出不同选择的能力。

“人工智能的世界是由人的数字化行为构成的数据世界。”人工智能目前之所以表现出了类似人类智能的能力,一方面是设计者放弃了让人工智能像人类一样思考,削弱了因果性思维在程序设计中的地位,转而大量采用相关性思维的程序设计,使人工智能通过数据将两个事件建立起联系;另一方面,大数据技术的发展使得人工智能能够获得海量的数据支持,运用统计学精确地挖掘出有价值的信息,形成决策的资源。

人工智能的决策能力完全依赖数据和算法,它在给定世界的给定时间上只会给出同个决定。数据决定了人工智能能够达到的深度,算法决定了通过迭代计算可得的最优解。这似乎给了人工智能无限的可能性,但是,对于给定的人工智能程序,它在给定的时间上所得的数据是固定的,它的设计算法也是固定的。因此,它能够给出的决策也是固定的。这与人类不同,人类可能因为一念之差而在某个时间上作出不一样的选择,而人工智能并没有另外的选择。

因此人工智能等同于一个决定论世界中的能动者。决定论,即在任何时刻只有一种可能的物理未来。决定论不仅是一种对物理世界的认知立场,同时也是自由意志的支持者最为头痛的对手。特别是,近年来脑神经科学的研究进展支持决定论;量子力学虽然是统计决定论的,但根据现有的发展,也没有为自由意志的存在留下空间。这使得哲学家们无法再回避决定论,不得不为自由意志的存在另寻出路,发展自由意志与决定论之间的兼容论,即,认为决定论世界中的能动者也可以有自由意志。人工智能(公认的)不具备自由意志,无需讨论它与决定论之间的兼容性,同时,它在任何时刻都只有一种可能的物理未来。在理论上,完全可以将人工智能看作决定论世界中的能动者,并在这一背景下讨论人工智能的自主与责任。

人工智能自主性问题的实质是在决定论世界中讨论能动者能否自主,并且,该讨论本身是有意义的。与兼容论相对的非兼容论认为:在决定论世界中,即使考虑到所有的事实与规则,也只能有一种物理未来,那么,人的所有的行动都是被世界控制的,能动者本身不可能具备自主性,对自主性的讨论也没任何意义。但是,兼容论则认为,即使决定论真的否定了人在行动中具有自由意志,人们仍然有想做某事件A的欲望,在最起码的程度上努力去做A。并且,在自己的理性支持下给出做A的理由。这意味着,如果我们将自主理解为“在任何时间上都能作出其他选择”,那么,决定论世界中不存在自主的能动者。而如果将自主理解为“为自己的行为给出适度的理解,并具备潜在的选择能力",那么决定论世界中的能动者依然可以是自主的。对自主性不同的理解为决定论世界能兼容自主性打开了一扇窗,同时,也意味着人工智能有可能是自主的。

三、决定论下的自主性问题

自主理论与决定论能否兼容,决定了该理论能否为人工智能的自主性辩护。人工智能自主的可能性寄托于存在一种受到广泛认可的自主理论,它与决定论相兼容。目前,占主导地位的自主理论有四种:自由意志论、融贯论、理性回应论和推理回应论。它们各自的简要定义如下:

自由意志论:当一个人所作出的决定本可以被另外一种可能的决定替代的时候,那么他所作的决定是自主的。

融贯论:当一个人的高阶欲望与低阶欲望相契合的时候,他是自主的。

理性回应论:当一个人能够意识到理性,并有能力根据理性作出决定和行动的时候,他是自主的。

推理回应论:当一个人能够为自己的决定和行为给出合理的推理时,他是自我控制的。在此基础上,如果他没有被任何外部因素强迫,他是自主的。

这四种自主理论各有侧重,也略有重合。根据它们所支持的自主性与决定论能否兼容分为两组,自由意志论与融贯论属于非兼容论、理性回应论属于兼容论,而推理回应论摇摆于兼容论和非兼容论之间。

根据定义,自由意志论认为,只有当人可以作出另外的选择时,他才是自主的。这在决定论世界中是行不通的。即使有学者争辩,自主性是能动性和意向性的结合,只要存在作出另外选择的可能,即可认为自主性存在。但是,假设有一颗有意识的自由下落的石头。它会认为它是完全自由的,认为它的下落是在它自己的愿望下发生的。然而,石头完全受制于物理事实,并没有它自已认为的自主性。因此,自由意志论属于非兼容论,不能为人工智能的自主性辩护。

同样,融贯论强调核心自我(centralself)的欲望与行动欲望的层层递进、相互契合。当人处于决定论世界时,他的核心自我的欲望与行动欲望都是被决定的,那么他不具备自主性。即使他的核心自我能够形成欲望,他的行动欲望仍然是被物理世界限制的。要么,他的核心自我与行动相矛盾,只具备潜在的自主性而不具备行动自主;要么,他的所有欲望都是被决定的,连潜在的自主性也不具备。因此,融贯论也不能为人工智能的自主性辩护。

推理回应论比较特殊,它是否能够支持决定论世界的能动者的自主性取决于决定论的强度。强的决定论认为,人类的大脑也是物理世界的一部分,也是被决定了的:而弱的决定论认为,人脑以外的物理世界是被决定的,人仍然有随时改变想法的可能。推理回应论认为,自主性是一个人以所相信和渴望的为基础来评估自身动机的能力。并且根据自身的(可能涉及价值的)评估来调整动机。它强调的不是能够按照“正确的"或者普适的价值现作出反应,而是能够通过推理的过程驾驭自己的动机。同时,它也强调必须由核心自我给出推理的过程,能动者不能处于“洗脑”状态。当处于强决定论世界时,能动者所作出的决定是由物理大脑根据经验与自身特性决定的,推理过程是大脑在决定以后用来肯定自己的选择的。能动者根本没有核心自我,处于“洗脑”状态,因此,没有自主性。然而,当处于较弱的决定论世界时,能动者即使在行动上受制于物理世界,依然可能为自己的行动给出有说服力的推理过程,那么,他可以是自主的。

然而,很遗憾,即便推理回应论有可能属于兼容论,它依然不能为人工智能的自主性辩护。因为,对于人工智能来说,推理过程即算法的运行过程。算法是由设计者决定的,运行过程也是固定的。人工智能等同于一个在强决定论世界里的人,它的“大脑”是物理世界的一部分,它的理性来自世界。因此,按照推理回应论,人工智能虽然能给出完美的推理过程,却不可能是自主的。

理性回应论是唯一有机会为人工智能的自主性辩护的理论。它强调能动者具备一个稳定的理性决策方式,其中提到的理性是道德理性,并且,该决策方式能够被具有相似价值和信念的第三方理解。决定论并不排除理性甚至道德理性的存在,这为自主性的存在留下了一线生机。当人可以采取理性来支持自己的决定时,他就是自主的。

人工智能的决策方式能够满足理性回应论。首先.人工智能具备一个理性决策方式,即算法。目前,人工智能的算法都是通过数据间的联系寻找最优解,它符合人类从经验中总结规律的思考方式,是一种稳定的理性决策方式,在逻辑理性上符合理性回应论的要求。同时,理性回应论要求决策方式的理性涉及道德理性,这一点对人工智能来说并不难。如果人工智能的决策完全不涉及道德,我们就无需为了人工智能如何承担责任的问题烦恼了,只要根据哈格的论证,认定人工智能承担全责即可。然而,人工智能的决策必然会涉及对错,它必须“理解”人们想要的是什么,否则它就无法为人类服务,也无法与人类合作。例如,自主驾驶汽车必须在程序设计上考虑路人的安全与乘客的安全,而不仅仅是避免碰撞。其次,人工智能的决策方式可以被第三方理解。这里被选择的第三方,正是人工智能的使用者。试想,如果使用者发现人工智能的选择总是与自已想要的相左,或者使得自己的工作、生活更繁琐而非更便利他就不会继续使用人工智能。人工智能的算法是设计者对使用者的理解,也是智能社会中全新的人与人的联结桥梁。甚至,目前的人工智能已经能够根据算法来适应用户习惯,提供更令用户满意的服务。这正是设计者为了让使用者作为第三方理解人工智能而做出的努力。

因此,在理性回应论的支持下,人工智能可以是自主的——不仅仅是在行动上自主.同时也是在算法相关的道德理性上自主。在此基础之上,才有可能进一步来讨论人工智能的责任问题。

四、人工智能相关的

责任归属

自主是责任的基础。但是,即使论证了人工智能的自主性,人工智能的责任划分仍然是一个难题。难点在于,自主并不直接地对应责任,责任本身也有不同的区分。一种较广为人知的责任的分类来自哈特(Hart)。哈特将责任区分为地位责任(role-responsibiliy)、因果责任(causalresponsibility)、义务责任(liabilityresponsibililty)和能力责任(capacityresponsibiliy)。地位责任指的是某人在社会组织中具有特殊的地位或职位而被赋子的某些特殊职责。因果责任指的是根据因果关系对造成的后果负责任。义务责任则是指人根据法律、道德等规范应当付出的代价。能力责任是主张某些人具备一些能力,并因此应对其行为负责。

从四种责任的定义可以看出,哈特对责任的分类主要是为法律与刑罚提供参考。因此,从哲学的角度来看,四种贵任的内涵之间有所重合。地位责任与义务责任有所重合。地位本身就是由社会规范所赋子的,它所承担的责任通常都与法律和道德有关,因此,地位责任能够转化为义务责任。因果责任与能力责任也有所重合。因果责任可以看作是能动者运用了自己的能力后,对造成的结果负责。或者,从另一个角度,因果责任也可以看作是能动者本可以运用能力,但没有这么做,由于因果关系而为疏忽负责。总而言之,能力责任都是由于因果关系改变了或未改变世界所形成的责任,因此,笔者认为能力责任能够转化为因果责任。

人工智能的责任争议主要指的是义务责任的争议。由于因果责任是按照因果关系划分的,人工智能所造成的结果理应由它本身承担,这是毫无争议的,就像地震应当为房屋倒塌负责一样。人工智能的义务责任划分却不那么明确。这是因为,传统的问责方式将人造物视为无法理解道德的,也就不能承担道德或法律责任。这种观点“混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间的本质差异”。

上文中已经论证了人工智能能够具备道德自主性,因此,有资格成为义务责任的承担者。问题在于,义务责任能够被赋予人造物吗?笔者认为答案是肯定的。机器的意向性是人赋子的,丹尼特认为,意向性最适合解释机器行为的时候,我们就认为机器具有意向性。所以,机器具有意图是一种属性论。如果说机器可以把意图作为附加属性,那么同样可以把义务责任作为一种附加属性。笔者虽然对哈克的意图与世界关系论证有微词,但认同哈克“责任是一种属性”的观点。义务责任并非人类天然具备的,对人类来说,它也是一种附加属性。既然义务责任是依据人类的理解,通过道德与法律规范附加在人类身上的,那么,人工智能通过算法具备了道德自主性,同样可以被赋予义务责任。

人工智能所承担的义务责任是一种联合(joint)义务责任,而非传统责任观中一力承担的责任。虽然人工智能可以“理解”道德理性,但是,它的道德理性是由设计者赋子的,它的行动是由使用者监管的。这就形成了设计者、人工智能、使用者之间无形的联结。在人工智能能够完全理解身体与道德之间的关系,实现无监管地行动而不违背任何伦理规范之前,这个联结都不会断裂。遗憾的是,目前来看,人工智能在相当长一段时间内无法实现对于身体与道德关系的理解。因此,人工智能的义务责任总是与人类相连的。那么,传统的个人各自承担责任的模式必然不适合人工智能。

人类合作者之间的责任研究也许能够给我们一些启示。虽然,人类合作者之间的责任研究同样充满争议和问题(例如,责任债务问题、过充分决定问题,等等),但是,或许可以从已有的研究中为人工智能的责任问题探寻一下出路。

首先,联合义务责任可以有多种形式。随着技术的发展,人工智能与人类的合作将会前所未有的复杂。第一,人工智能单独采取行动(如果被允许的话),例如,无人驾驶汽车。由于人工智能可以是自主的,应当承担全部责任。并且,基于人工智能与设计者的联结,设计者承担连带责任。第二。人工智能可能处于使用者的监管之下。这种关系类似于工作中的上下级,那么,负责执行的人工智能将承担全部的因果责任和部分义务责任,面使用者因为处于监管地位,承担义务责任。第三,人工智能可能与人组成集体能动者。集体能动者能够具备独立于任何成员的欲望和意图,在此基础上,集体能动者承担全部责任。第四,第二种与第三种情况可能混合出现,那么,可以将其视为升级版的集体能动者来承担全部责任。

其次,由于设计者—人工智能—使用者之间的联结与承担义务责任有关,使用者对人工智能“内部”的了解变得十分重要,放任人工智能的使用者要承担“忽视的责任”。使用者需要明确自已的人工智能能够做到的范围,并且防患于未然。目前的人工智能已经能够根据用户的喜好改进自己的行为。这就意味着,如果使用者不去了解他的人工智能能够做什么,随意地给人工智能灌输不良的行为喜好,会使得人工智能成为糟糕的社会成员。这一点也是人工智能威胁论所担忧的,人工智能可能通过学习对人类产生威胁。因此.在这种情况之下,使用者忽视了可能造成的后果,应该承担相应的义务责任,也就是笔者所说的忽视的责任。

再次,非人工智能的使用者同样要承担一些义务责任。这一点是针对与人工智能—人的集体能动者对立的自然人而言的。目前的无人驾驶汽车已经号称超越了人类驾驶员的安全基准,能降低驾驶事故的概率,促进公共安全。假如这一论断成立,就意味着不使用自动驾驶系统的驾驶员将成为马路上的危险者,对他人的安全构成威胁,他们应当承担起相应的责任。如同智能手机普及以后仍然使用传统手机的人,一旦因为手机的原因错过了重要的工作或者生活消息,他们会遭到其他人的请责。随着人工智能越来越“聪明”,不使用人工智能的人迟早会迎来要承担义务责任的一天,并且,这一天可能并不遥远。

本文将人工智能的自主性问题转化为决定论世界中能动者的自主性问题,并且,在理性回应论的支持下,得出了人工智能不仅仅是行动自主的,而且可以是道德自主的,因此,能够承担义务(道德)责任。这一结论也许不会得到全部人工智能研究者的认同,但是,它为亟待解决的人工智能的责任分配问题搭建了地基。人工智能的责任问题必然要摆脱传统的单一问责机制,走向社会—技术—认识系统中的问责机制。只要将人工智能视为自主的道德能动者,它与人类的合作就能被视为集体行动者,人类合作者之间的责任分布研究就能够为人工智能与人之间的责任分布指引方向。但是,这只是一小步,其结论也只是一个大致轮廓,人工智能的责任研究依然任重道远。如若想使人工智能的责任图景更为清晰,需要更深人地探讨人工智能对伦理的具身化理解、深化人工智能与人之间合作方式的研究和认知结构对比研究,这将会推进对于人工智能—人的集体能动者的理解,从而对人工智能的责任细分产生更为深远的影响。

来源:《哲学分析》,2018年第4期,第125-131页。

simpleliving

noblethinking返回搜狐,查看更多

人工智能给军事安全带来的机遇与挑战

1.2提升军事情报分析效率

随着信息技术的发展,人类正在迎来一个“数据爆炸”的时代。目前地球上两年所产生的数据比之前积累的所有数据都要多。瀚如烟海的数据给情报人员带来了极大的困难和挑战,仅凭增加人力不仅耗费大量钱财,问题也得不到根本解决。与此同时,伴随大数据技术和并行计算的发展,人工智能在情报领域日益展现出非凡能力。目前,美军已经敏锐地捕捉到了人工智能在军事情报领域的巨大应用潜力,成立了“算法战跨职能小组”。该小组的首要职能就是利用机器视觉、深度学习等人工智能技术在情报领域开展目标识别和数据分析,提取有效情报,将海量的数据转换为有价值的情报信息,为打击ISIS等恐怖组织提供有力的技术支撑。机器算法的快速、准确、无疲劳等特点使其在大数据分析领域大展身手,展现出远超人类的能力。因此,美国防部联合人工智能中心主任沙纳汉中将就直言不讳地表示,算法就是“世界上最优秀、训练最有素的数据分析师”。

1.3提升军事网络攻防能力

网络空间已经成为继陆、海、空、天之外的“第五维空间”,是国家利益拓展的新边疆、战略博弈的新领域、军事斗争的新战场。习近平主席在中央网络安全和信息化领导小组第一次会议上指出,“没有网络安全就没有国家安全”。网络攻防是军事安全领域中的重要一环,基于人工智能技术的自动漏洞挖掘可以显著提升军事系统的网络防御能力。目前,网络防御领域存在两大问题:一是网络技术人才短缺;二是当前的网络防御系统面对未知漏洞表现不佳。人工智能的新发展为提升网络防御水平提供了新途径,主要体现在网络系统漏洞自动化检测和自主监视系统等方面。以深度学习为代表的机器学习技术有望使得网络防御系统不仅能从以往的漏洞中学习,而且能在监视数据中不断提升对未知威胁的应对能力。有研究表明,人工智能可以从大量网络数据中筛选出可疑信息,以此增强网络防御能力。比如“蒸馏网络”公司(DistilNetworks)就利用机器学习算法来防御人类难以察觉的高级持续性威胁(APT)网络攻击。目前,美国亚利桑那州立大学的科学家已经研发出了一种能够识别“零日漏洞”的机器学习算法,并能够追踪其在黑客界的流动轨迹。麻省理工学院(MIT)“计算机科学和人工智能”实验室的研究人员也启动了PatternEx研究项目,意在构建一个机器学习系统,预期每天能检查36亿行日志文件,监测85%的网络攻击,并在投入使用时进行自动学习和采取防御措施。美国国防部高级研究计划局正计划将人工智能用于网络防御,重点发展的功能包括在投入使用之前自动检测软件代码漏洞以及通过机器学习探测网络活动中的异常情况等。

1.4为军事训练和培训提供新方式

人工智能为军事训练和培训也提供了新方式。在作战训练领域,人工智能技术与虚拟现实技术相结合能够极大提升模拟软件的逼真度和灵活性,为针对特定战场环境开展大规模仿真训练提供高效手段,真正实现“像训练一样战斗,像战斗一样训练”。首先,通过收集卫星图像、街景数据、甚至是无人机拍摄的三维图像,虚拟现实程序能够在人工智能的帮助下快速、准确地生成以全球任何一处场景为对象的综合训练环境(STE),帮助士兵进行更有针对性的预先演练,提升士兵执行特定任务的能力。其次,人工智能赋能军事训练模拟软件在不降低真实度的情况下快速生成训练环境、设计交战对手,摆脱了以往军事训练耗费大量人力物力布置训练场景的传统模式。再次,人工智能具备的自主性使得模拟军事训练不会以可预测模式进行,士兵必须使用各种设备和不同策略在复杂多样的环境中战斗,有利于提升士兵和指挥官在作战中的应变能力。最后,人工智能通过在模拟对战中与人类反复交手从而迭代学习,系统借助大量复盘模拟可以不断完善应对方法,为参谋人员提供参考借鉴。这一过程类似于与AlphaGo进行围棋对战。换言之,人工智能不仅可以扮演模拟军事训练中人类的强大对手,还可以在每次胜利时向人类传授一种针对这次战役或行动的新策略。除此之外,人工智能在军事训练的其他领域也有着广泛应用。目前,一个名为“神探夏洛克”(SHERLOCK)的智能辅导系统已经被用于美国空军的培训中。这个系统能够为美国空军技术人员提供如何操作电子系统对飞行器进行诊断的培训。同时,南加州大学的信息科学学院已经研制出了一个基于替身的训练程序,能够为派驻海外的军人提供跨文化交流训练。

1.5给军事理论和作战样式创新带来新的启发

诚如恩格斯所言:“一旦技术上的进步可以用于军事目的,他们便立刻几乎强制地,而且往往是违背指挥官的意志而引起作战方式上的改变甚至变革。”技术进步作用于军事领域必然引起作战方式的改变甚至变革,这是恩格斯100多年前就向人们揭示的军事技术发展规律,人工智能技术当然也不例外。总体来看,以人工智能技术为支撑的智能化武器装备较传统武器装备具有突防能力强、持续作战时间长、战术机动性好、训练周期短以及综合成本低等显著优势。智能化无人系统可采用小型化甚至微型化设计,使用复合材料和隐身技术,以隐蔽方式或集群方式接近目标,让敌人难以察觉或无法防范。无人武器系统还可以突破人类生理局限,装备的性能指标和运转时长只需考虑制造材料、各类机械电子设备的承受极限和动力能源的携带量,不但使得系统在机动、承压方面能力得到革命性提升,并且能够实现远距离侦察打击和在目标区域的长时间存在。同样重要的是,与传统武器系统操控训练周期一般长达数年不同,无人系统操控员仅需数月或一年左右的训练即可远程操控“捕食者”“死神”等无人武器参加实战,更多作战人员不必直接踏上战场,有望大大降低战死率和随之而来的社会舆论压力。基于人工智能技术军事化应用的上述特点,近年来美军提出了以算法较量为核心的算法战、无人武器系统蜂群式作战、具有高度自适应性的“马赛克战”等一系列新作战样式。可以预见的是,随着人工智能技术的进一步发展,智能化条件下的军事理论和作战样式创新不会停止。

总而言之,人工智能可以帮助军事力量更加精准高效地运转,同时降低人类面临的生命危险。人工智能在无人作战、情报搜集与处理、军事训练、网络攻防、智能化指挥控制决策等军事领域的广泛运用具有“改变游戏规则”的颠覆性潜力,有望重塑战争形态,改写战争规则,推动智能化战争的加速到来。中央军委科技委主任刘国治中将等专家认为,人工智能必将加速军事变革进程,对部队体制编制、作战样式、装备体系和战斗力生成模式等带来根本性变化,甚至会引发一场深刻的军事革命。

人工智能给军事安全带来的风险和挑战

人工智能作为一种科学技术,同样具备“双刃剑”属性。人工智能一方面为人类社会发展进步和维护军事安全提供了新的动力和机遇,另一方面也带来了一系列威胁与挑战。综而观之,人工智能给军事安全带来的威胁和挑战主要有以下几个方面。

2.1人工智能军事应用带来的非预期事故

人工智能的军事应用存在诸多不确定性,容易带来非预期事故的发生。这主要由以下两点原因所致:一是由于人工智能内部的脆弱性问题(internalvulnerbility)。当前,人工智能还停留在弱人工智能阶段,而弱人工智能系统的特点在于它们接受了非常专门的任务训练,例如下棋和识别图像。战争可以说是最复杂的人类活动之一,巨量且不规律的物体运动仿佛为战场环境蒙上了一层“迷雾”,难以看清和预测战争全貌。在这种情况下,系统的应用环境无时无刻都在发生变化,人工智能系统可能将难以适应。因此,当前弱人工智能存在的根本脆弱性(brittleness)很容易损害系统的可靠性。交战双方部署的人工智能系统交互产生复杂联系,这种复杂性远远超出一个或多个弱人工智能系统的分析能力,进一步加剧了系统的脆弱性,发生事故和出错的概率将大大增加。此外,人工智能算法目前还是一个“黑箱”,可解释性不足,人类很难预测它的最终结果,也容易带来很多非预期事故。二是外部的攻击利用问题(externalexploitation)。研究人员已证明,图像识别算法容易受到像素级“毒”数据的影响,从而导致分类问题。针对开源数据训练的算法尤其容易受到这一挑战,因为对手试图对训练数据进行“投毒”,而其他国家又可能将这些“中毒”数据用于军事领域的算法练。目前对抗性数据问题(adversarialdata)已经成为一个非常严峻的挑战。此外,黑客攻击还可能导致在安全网络上训练的算法被利用。当训练数据受到污染和“投毒”,就很可能产生与设计者意图不符的人工智能应用系统,导致算法偏见乃至更多非预期事故的发生。最后,人机协同也是一个很大的难题。无论是强化学习、深度学习,还是专家系统都不足以完全准确地反映人类的直觉、情感等认知能力。人工智能的军事运用是“人—机—环境”综合协同的过程,机器存在可解释性差、学习性弱、缺乏常识等短板,或将放大发生非预期事故乃至战争的风险。

2.2人工智能军备竞赛的风险

与核武器类似,由于人工智能可能对国家安全领域带来革命性影响,世界各国将会考虑制定非常规政策。目前,世界各国(尤其是中、美、俄等军事大国)都认识到人工智能是强化未来国防的关键技术,正在加大人工智能领域的研发力度,并竭力推进人工智能的军事应用,力图把握新一轮军事技术革命的主动权,全球人工智能军备竞赛态势初露端倪。具体而言,美国将人工智能视为第三次抵消战略的核心,建立“算法战跨职能小组”,筹划基于人工智能的算法战。2018年7月,美国防部设立专门的人工智能机构——联合人工智能中心(JAIC),大力推动军事人工智能应用。2019年2月12日,美国防部正式出台美军人工智能战略,并将联合人工智能中心作为推进该战略落地的核心机构。美国2021财年国防授权法案草案中也特别强调对人工智能、5G、高超声速等关键技术进行投资,建议对人工智能投资8.41亿美元,对“自主性”(autonomy)投资17亿美元。这些举措都体现出美国积极推动人工智能军事化、在人工智能领域谋求新式霸权的意图。俄罗斯在这一领域也不甘落后。2017年1月,普京要求建立“自主机器复合体”(AutonomousRoboticComplexs)为军队服务。中国政府则于2017年7月20日出台《新一代人工智能发展规划》,正式将发展人工智能上升到国家战略高度。军事领域也在通过“军民融合”战略加快“军事智能化发展”步伐,“促进人工智能技术军民双向转化,强化新一代人工智能技术对指挥决策、军事推演、国防装备等的有力支撑,推动各类人工智能技术快速嵌入国防创新领域”。

鉴于人工智能强大而泛在的技术本质以及军事领域对于强大技术的强烈需求,人工智能走向军事应用是难以阻挡的趋势,当前各国竞相推动人工智能军事化和发展人工智能武器便是其现实体现。大国间在人工智能领域的军备竞赛将会危及全球战略稳定,对国家安全带来严重威胁,埃隆·马斯克关于人工智能军备竞赛可能引发第三次世界大战的预言并非危言耸听。如同所有军备竞赛一样,人工智能领域的军备竞赛本质上都是无政府状态下安全困境的体现,如果缺乏信任和有效的军备控制措施,这将成为一场“危险的游戏”,直到一方把另一方拖垮或双方共同卷入战争,上演一场智能时代的“零和博弈”。

2.3扩展威胁军事安全的行为体范围和行为手段

传统上,威胁军事安全的主要行为体是主权国家的军队,但随着网络和人工智能技术的发展,这一行为体范围正在拓展。以网络攻击为例,根据攻防平衡理论,重大军事技术的出现将对攻防平衡产生重大影响,而有的军事技术天然偏向于进攻方。当前,人工智能技术的发展对提升网络攻击能力同样提供了极大机遇。可以预见,人工智能与深度学习的结合有望使得“高级持续威胁”系统成为现实。在这种设想下,网络攻击方能够利用APT系统24小时不间断地主动搜寻防御方的系统漏洞,“耐心”等待对方犯错的那一刻。随着人工智能逐步应用,将有越来越多的物理实体可以成为网络攻击的对象。例如,不法分子可经由网络侵入军用自动驾驶系统,通过篡改代码、植入病毒等方式使得军用无人车失去控制,最终车毁人亡。又比如通过入侵智能军用机器人,控制其攻击己方的人员或装备。同时,人工智能与网络技术结合可能进一步降低网络攻击的门槛。当智能化网络攻击系统研制成功,只要拥有足够多的资金便能有效提升自己的网络攻击能力,而不需要太高的技术要求。因此,未来恐怖分子利用人工智能进行网络攻击或攻击自主系统的算法、网络等,继而诱发军事系统产生故障(如军用无人车、无人机撞击己方人员),或者直接损坏军事物联网实体设备等,都会对军事安全产生很大威胁。

此外,人工智能的发展应用还将催生新的威胁军事安全的方式和手段。人工智能表现出诸多与以往技术不一样的特点,也自然会带来威胁军事安全的新手段,深度伪造(deepfakes)就是其中的典型代表,该技术为煽动敌对国家间的军事冲突提供了新途径。例如,A国雇佣代理黑客使用人工智能技术制作“深度伪造”视频或音频材料,虚构B国密谋针对C国采取先发制人打击,并将这段“深度伪造”材料故意向C国情报部门秘密透露,引发C国的战略误判,迫使其采取对抗手段。B国面对这种情况也将不得不采取措施予以应对,一场由A国借助人工智能技术策划的针对B、C两国的恶意情报欺诈就完成了。当前,“深度伪造”技术的发展速度远超相关的检测识别技术,“开发深度伪造技术的人要比检测它的人多100到1000倍”,这给各国安全部门抵御人工智能增强下的信息欺诈和舆论诱导制造了很多困难。此外,运用人工智能系统的军队也给自身带来了新的弱点,“算法投毒”、对抗性攻击、误导和诱骗机器算法目标等都给军事安全带来了全新挑战。

2.4人工智能产生的跨域安全风险

人工智能在核、网络、太空等领域的跨域军事应用也将给军事安全带来诸多风险。例如,人工智能运用于核武器系统将增加大国核战风险。一方面,人工智能应用于核武器系统可能会强化“先发制人”的核打击动机。核武器是大国战略威慑的基石,人工智能增强下的网络攻击将对核武器的可靠性构成新的威胁,在战时有可能极大削弱国家威慑力、破坏战略稳定。因此,尽管目前人工智能增强下的网络攻击能力的有效性并不确定,危机中仍将大大降低对手间的风险承受能力,增加双方“先发制人”的动机。信息对称是智能化条件下大国间进行良性竞争的基础和保障,但现实情况往往是,在竞争激烈的战略环境中,各国更倾向于以最坏设想来揣测他国意图并以此为假设进行斗争准备,尤其当面对人工智能赋能下的愈加强大的针对核武器系统的网络攻击能力,“先下手为强”确乎成为国家寻求自保的有效手段。另一方面,人工智能技术在核武器系统领域的应用还将压缩决策时间。人工智能增强下的网络攻击几乎发生在瞬间,一旦使核武器系统瘫痪,国家安全将失去重要屏障,给予决策者判断是否使用核武器的压力将激增。尤其在一个国家保持“基于预警发射”(lauch-on-warning)的情况下,核武器系统遭到人工智能增强下的网络攻击时几乎无法进行目标探测并且发出警报,更不可能在短时间内进行攻击溯源和判定责任归属,决策时间压缩和态势判断困难会使决策者承受巨大压力,极有可能造成战略误判,给世界带来灾难。

人工智能与网络的结合会极大提升国家行为体和非国家行为体的网络能力,同时也会催生出一系列新的问题。首先,人工智能技术的网络应用将提升国家行为体的网络攻击能力,可能会加剧网络领域的冲突。如前所述,基于人工智能的APT攻击可使得网络攻击变得更加便利,溯源问题也变得更加困难。与此同时,人工智能的网络应用可能会创造新的缺陷。目前人工智能的主要支撑技术是机器学习,而机器学习需要数据集来训练算法。一旦对方通过网络手段注入“毒数据”(如假数据),则会使得原先的人工智能系统非正常运行,可能带来灾难性后果。其次,由于人工智能算法的机器交互速度远超人类的反应速度,因此一旦将人工智能用于军事领域的网络作战,还有可能带来“闪战”风险,即人类还没来得及完全理解网络空间的战争就已经发生。此外,人工智能在太空领域的应用可能对全球战略稳定和军事安全带来破坏性影响。在人工智能的加持下,传统的反卫星手段将变得更加精准、更具破坏性、更难追溯,从而加大“先发制人”的动机,寻求先发优势。这容易破坏航天国家的军事安全和全球战略稳定,因为攻击卫星尤其是预警卫星往往被视为发动核打击的前兆。

结语

总体国家安全观强调,发展是安全的基础和目的,安全是发展的条件和保障,二者要同步推进,不可偏废。既要善于运用发展成果夯实国家安全的实力基础,又要善于塑造有利于经济社会发展的安全环境,以发展促安全、以安全保发展。因此,维护人工智能时代的军事安全并不代表放弃人工智能的发展,反而要大力推动其应用,使其成为维护军事安全的重要手段和支撑,并注重化解风险。如今,我国正处在由大向强发展的关键时期,人工智能有望成为驱动新一轮工业革命和军事革命的核心技术。因此,我们需要抢抓此次重大历史机遇,积极推动人工智能的研发和军事应用,推动军事智能化建设稳步发展,为建设世界一流军队增添科技支撑。

在当今时代,没有谁是一座孤岛,人工智能对于军事安全领域的影响是全球性的,因此推动人工智能领域的国际安全治理、构建人类命运共同体就显得尤为重要。由于人工智能的迅猛发展,目前对于智能武器尤其是致命性自主武器系统的相关法律法规还并不完善,各国在如何应对这些问题方面也没有明确的方法、举措和共识,但这些问题确关人类社会的未来前景和国际体系稳定。为了维护我国的军事安全以及整体的国家安全利益,应当推动人工智能技术治理尤其是安全领域的全球治理,在人工智能的军事应用边界(如是否应当将其用于核武器指挥系统)、致命性自主武器系统军备控制等领域开展共同磋商,在打击运用人工智能进行恐怖犯罪等领域进行合作,构建人工智能时代的安全共同体和人类命运共同体,维护国家军事安全和人类和平福祉。

免责声明:本文转自信息安全与通信保密杂志社,原作者文力浩,龙坤。文章内容系原作者个人观点,本公众号转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

推荐阅读

2021年上半年世界前沿科技发展态势

2021年上半年世界前沿科技发展态势——信息领域

2021年上半年世界前沿科技发展态势——生物领域

2021年上半年世界前沿科技发展态势——能源领域

2021年上半年世界前沿科技发展态势——新材料领域

2021年上半年世界前沿科技发展态势——先进制造领域

2021年上半年世界前沿科技发展态势——航空领域

2021年上半年世界前沿科技发展态势——航天领域

2021年上半年世界前沿科技发展态势——海洋领域

转自丨信息安全与通信保密杂志社

作者丨文力浩,龙坤

编辑丨郑实

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇