博舍

认识智能化作战 人工智能武器是

认识智能化作战

引言

智能化作战,是以人工智能为核心的前沿科技在作战指挥、装备、战术等领域渗透、拓展的必然发展方向。对于智能化作战,可以从“制智为要、泛在云联、多域一体、脑机融合、智能自主、无人争锋”等核心概念来理解和把握。

制智为要——智能化作战的目标重心

智能化作战必然注重制智权争夺,敌对双方围绕认知过程的感知、理解、推理等实施对抗,基于认知对抗的速度和质量,夺取认知主动,破坏或干扰敌方认知。

制智权成为智能化作战新的制权需求。人类最早的作战空间主要在陆地,“陆权论”是最重要、影响最深远的战略思想。随着人类作战活动空间向海洋、空中、太空、电磁领域拓展,“制海权”“制空权”“制天权”“制电磁权”相继成为作战争夺重点。而在智能化作战中,“制脑权”或者“制智权”将成为新的制权争夺点。“制智权”是指在人的智力空间的争夺和对抗,虽不是实际的物理空间,却涉及其他各个空间,对其他空间制权可产生乘积效应。一旦“制智权”丧失,其他空间的制权也就失去意义。

“制智权”的核心是对认知速度、质量优势的争夺。认知过程包括感知、理解、推理三个不断复现的阶段。“制智权”争夺,首先在感知阶段展开,从最传统的隐蔽伪装、电磁静默到电子对抗,再到黑客接管以及量子通信等智能技术的军事应用,都是军事感知对抗的组成部分,目的是让对手无法进行感知或者感知到垃圾信息、虚假信息,确保己方准确、快速地感知对手和战场。在认知的理解和推理阶段,“制智权”的争夺则主要是在智能化手段辅助下通过战术、谋略运用,让己方能够制定合理的决策方案、计划,使对手无法或难以准确判断、理解我方行动意图。同时,也可以通过对脑机能干扰和影响人员思想意识、价值判断、心理情绪等,扰乱、破坏对手的认知,还可以通过攻击、破坏辅助决策和自主武器装备信息数据处理硬件,达到占据认知速度、获取质量优势的目的。

泛在云联——智能化作战的基础设施

分布在战场上的人员、装备、物资等各种作战、指挥、保障实体,通过全时空覆盖的物联终端、移动物联网等信息物理系统,按需紧密联系在一起,形成战场数据实时自动采集、传输、处理,为智能化作战提供服务。

泛在云联为智能化作战生产所需的大数据。数据是人工智能的“燃料”,而大数据的基础则在于数字化、网络化。智能化作战同样依赖作战大数据:敌情侦察、战场管理是获取数据,情报分析、情况判断是分析数据,决策制定和命令计划是利用和产生数据,作战行动由数据驱动同时也生成数据。泛在物联网是智能化作战战场大数据生产、传输、汇集的载体。战场上的每个实体,都是物联网的终端,分配一个独有的“电子身份”,通过声、光、电等各种传感器输出自身的数据。同时,实体探测到的目标环境信息数据,通过网络汇聚、传送到节点和云端。全时、自动采集、汇聚的数据,共同形成作战大数据,为智能化作战提供算法训练、模式挖掘和优化分析的“矿藏”。

泛在云联为智能化作战提供强大计算能力和算法支持。计算能力和算法是人工智能的核心要素,大数据需要高性能计算、高效率算法进行处理,从而产生有价值的认知能力和知识。配置在不同层级不同规模的计算、算法作战资源云,通过信息物理系统与泛在物联网联在一起,既可汇集作战大数据进行算法训练,也可为不同层级的作战和指挥提供所需的计算能力和算法模型支持,进行多元情报智能判读与信息融合,评估战场态势、优化作战方案、定下作战决心、制定作战命令计划,帮助战斗员或无人装备更加快速、准确地打击目标。

多域一体——智能化作战的战场空间

智能化作战,不仅仅在陆地、海上、空中、太空等传统战场空间中的一个或多个进行,而是遍及上述物理实体空间和认知、社会、赛博等无形空间,通过多域相互配合、互为支撑的行动,聚焦作战目的的达成。

多域一体反映了联合作战特点。未来战争中,各军兵种智能化作战相互间的任务界限区分不再泾渭分明,泛在云联的基础网络与联合作战网络密切交融,按需与相关军兵种信息共享、数据直通;作战在联合指挥下,围绕统一的作战目的组织实施;不同空间域的作战行动相互配合、互为支撑,作战效果叠加、补充,形成统一的态势优势、全局战果。

多域一体提出了跨域作战能力要求。多域一体,意味着部队将面临来自陆、海、空、网络、认知、社会等多域空间的威胁,对智能化作战的侦察、指挥、打击等要素都提出了严峻挑战,要求能够利用智能化手段和方法及时、准确、高效处理多域数据、信息,应对来自多域空间的威胁,具备跨域打击和防卫能力。

脑机融合——智能化作战的指挥决策

脑机融合,是指在合理人机分工、高效人机交互的支撑下,充分发挥人脑与机器各自的优势,实现指挥艺术与技术的融合,在智能化作战指挥决策过程中,快速、准确、高效、灵活地实施情况分析判断、定下作战决心、下达命令计划。

人机合理分工是脑机融合的关键。智能化作战中人始终是主导。人脑的优势在于创造性、灵活性、主动性,劣势在于当受疲劳、遗忘、情绪等生理和心理条件影响时,工作速度会变慢、精度低,不适于重复性、繁琐性、单调性的任务;而机器的优势在于不会疲劳、不会遗忘、没有情绪、速度快、精度高,劣势在于程序化、被动性、部署复杂。即便是人工智能,也需要数据来学习和训练,否则不具有认知能力,适合于规范、重复、繁琐、单调的工作,不适于非常规、跳跃性强的工作。因此,高层决策、总体规划等艺术性强的工作应由人脑来处理,把需要大量、精确、高速的数据信息记忆、计算、管理任务交给机器,充分发挥脑机两者优长、弥补短板。

人机高效交互是脑机融合的支撑。人机交互,是让人、机器能够互相理解的媒介,目的是让机器能“听”懂人类语言、“看”懂人类动作与表情、“理解”人的情绪、意图,并把计算过程和结果用人容易理解的方式呈现出来。智能化作战涉及的信息、数据种类多、容量大、时效性强,更需要通过视觉、听觉、文本、动作乃至脑电等多种形式的数据信息进行人机交互,建立人脑与机器间快速、准确的信息通道,支撑实用高效的脑机融合。

智能自主——智能化作战的武器装备

执行侦察、机动、打击、防护等智能化作战任务的各类武器装备,能够根据任务目标、敌方情况、战场环境、自身状态的实时变化,自主判断情况、选择和执行恰当的行动方案,并在作战过程中不断学习、改进判断和决策能力。

智能自主武器装备具有类人思考能力。自动化早已出现在战场上,但自动化不同于自主化。自主化也会预先设计一些规则,但不仅仅局限于这些规则,而是能像人一样对来自实际情况的数据进行理解和认知,从输入中、从经验中学习,发现其背后隐藏的特征、模式,不仅能应对事先设计的情况,也能应对规则未涵盖的新情况。

智能自主武器装备的性能具有成长性。在自动化武器装备已有的探测距离、探测范围和反应速度、打击精度优势基础上,借助强大的计算能力和算法模型,智能自主武器装备还能像人类新兵逐渐成长为身经百战的老兵那样,随着实战经验的积累,不断学习改进、高效整合这些优势和应对新情况的方法、模式,从而在战场上表现得更加出色。

无人争锋——智能化作战的交战方式

智能化作战行动,主要依靠无人化武器装备在泛在云联网络体系支撑下、在后台人的控制下或授权自主地在前沿一线实施高危险性的侦察探测、机动、打击等作战行动。

无人争锋是在人的主导之下。无人作战并非没有人的参与,不是让无人智能自主武器装备完全自行决定和实施行动,而是由人主导、采用人机结合的不同方式,人在后台赋予机器一定程度的自主行动权限,让机器在一线实施作战行动。人机协同的方式,按照机器的自主权限从低到高,分为“人在环中”“人在环上”“人在环外”三种:人在环中,武器装备的行动完全由人来决策和控制;人在环上,武器装备按照指令自主决策和实施行动,人按照需要随时介入接管决策权;人在环外,武器装备被指定了行动限制和目标,自主决策和实施行动。

无人争锋是融入体系的行动。智能化作战无人武器装备与敌方的交锋,不是某个军兵种力量独立的行动,而是融入体系大背景中的协调一致的行动,依靠泛在云联基础设施随遇接入,并接受全时、全域的情报支持,各军兵种相互提供数据、情报、火力和保障等支援,协作配合共同实施。(沈寿林、张国宁)

反人工智能在军事领域的应用研究

反人工智能的本质是诈与反诈,孙子兵法有云:“兵不厌诈”,“以虞待不虞者胜”。不要试图通过来反人工智能发现所有的欺诈行动,要学会辨别真与假,在欺诈的迷雾中前进。

博弈游戏一直是反人工智能领域的重要研究课题。根据是否可以完全了解博弈信息,可以将其细分为完整和不完整的信息集。完整信息集这意味着博弈中的所有参与者都可以完全获得游戏的所有信息,例如在围棋和象棋游戏中,双方都可以完全了解所有的碎片信息和对手的行动计划。不完整的信息集是指参与者无法获得完整的信息,并且只有部分信息可见的事实[3]。例如,在麻将或扑克中,玩家无法控制另一位玩家的分布或手牌,只能根据当前情况做出最优决策。

目前军事领域的反人工智能实践发展迅速,但也存在许多危机。当前,反人工智能只能做一些基础工作,大多数情况它并不理解这么做的原因,只是因为数据处理的结果告诉它那样做会有最优解。如果反人工智能系统不完全了解其功能或周围环境,则可能会产生危险的结果。特别是在军事战争中,任何事情都可能发生,并不是仅仅靠数据就能完全解决或预测的,此时反人工智能就有可能执行错误的行动,造成难以估计的后果。反人工智能在军事领域的训练数据稍有偏差就有可能埋下安全隐患;如果攻击者使用恶意数据复制训练模式,则将导致军事上实施反人工智能的重大错误。

1.2反人工智能的必要性

从军事防守的角度看,有必要研究反人工智能技术。人工智能在各个国家的独立部署和不受管控的因素已注入了不稳定。以机器的速度而不是人的速度做出的决策也增加了机器决策的危机。在持续不断的冲突中,各方使用智能性自主武器,争取开始就获得军事优势,这些军事优势为各方在战斗中提供了强大的战斗力。人工智能及其权利的界定十分困难,即使战略系统稳定,也可能为了避免受到威胁而发动攻击,增加了和平相处中发生意外攻击的概率。有了智能自主武器,在战争筹备中的危险系数提高,智能自主武器可能脱离管控,有意或无意的发起攻击。在军事领域使用人工智能增加了军事的不确定性,使各国感到自身安全受到威胁。

战争中,存在事实真相和价值目标,在事实和价值之间,存在一种可能性,这种可能性是一种空间,时间或单位。战争中固定的目标不会随时间变化很大,并且它的空间变化不大,但是价值相差很大。例如,第38军在上海与美国的战争中价值最高;马赛克是要找到这些事件所重视的物体、时间或空间。阿尔法狗只能谈论事情,不能理解言外之意等。

对手发动侵略的可能性很小,是因为没有危机或者因为没有意外的军事行动。国家的最高级别决策者必须相信存在对一个或多个基本价值观的威胁;准备工作似乎就是威胁的开始,然后一般的威慑在起作用。当两国之间正在酝酿或正在发生战争时,强力的威慑才起作用了。在冷战期间,人们对威慑的普遍理解几乎完全是核威慑。美国最希望制止核侵略,核武器威胁是它用来制止这种侵略的最后手段。然而,美国也试图阻止其他对手的所有重大侵略,并发展了强大的常规军事力量来支持其常规威慑。今天,正如在冷战期间一样,美国也拥有威慑战略,旨在遏制对美国领土的侵略和对美国在欧洲和东亚的盟友的侵略。在军事领域中使用反人工智能,可能会导致无法解释的冲突,不恰当的自主行动可能导致意外的升级。智能系统的存在会带来技术事故和故障的机会,特别是当行动者没有安全的保障能力时,事故和误报反过来会影响决策。此外,原本只为防御的反人工智能升级,虽然不是为冲突和攻击的升级,一旦被另其他国家视为升级,可能会升级为大国之间的智能争霸。所以为了防止被人工智能武器意外攻击,有必要加速反人工智能在军事领域应用的研究。

2美军反人工智能的发展

美军暂时并没有明确的提出反人工智能技术的概念,但是其建立了多项计划都是在向反人工智能在军事领域应用的方向发展。希望能不断优化其人工智能和自主化模型,防御乃至反制对方的人工智能技术。其目前已确立了从“灰色地带”分析对方真实意图,从态势洞察中分析出对方的真实目的等方面发展方向,未来会在可解释性、防战略欺骗等方面加大投资。所以我们需要未雨绸缪,努力推动反人工智能在军事领域的应用。

2017年,DARPA发起了机器终身学习项目(M2S),探索类比学习方法在人工智能中的应用,谋求下一代人工智能新的突破口,使它们能够进行现场学习并提高性能。在真实世界的情况而无需进行检查或联网检查。追求独立学习的能力使系统能够适应新情况,而无需事先进行编程和培训。

2017年8月,DARPA提出“马赛克战”概念,其先进之处在于,不局限于任何具体机构、军兵种或企业的系统设计和互操作性标准,而是专注于开发可靠连通各个节点的程序和工具,寻求促成不同系统的快速、智能、战略性组合和分解,实现无限多样作战效能。

在2018年DARPA发布了一个名为“指南针”的项目,通过量化战斗人员对各种攻击来帮助他们了解对方的真实目的。该项目会从两个方面解决问题:首先,它用来确定对手的行动和目标,然后确定计划是否正常运行,例如位置,时间和行动。但是在充分理解它们之前,需要将获取的数据通过人工智能转化为信息,理解信息和知识的不同含义,这是博弈论的开始。然后,在人工智能技术中融入博弈理论,根据对手的真实意图确定最有效的行动方案。

2018年初,KAIROS人工智能项目正式发起。美国军方期望使用KAIROS项目来提高位置意识,预警,情报程序和战争情报能力。具体而言,在正常的协调模式下,每个国家都有计划和实施隐藏的战略步骤。在战争期间,不同国家的军事部队采取了不同的策略,KAIROS项目希望构建能获得“情报背后的情报”的系统,具有更强的监视和预警,情报流程和智能决策功能。

在以上计划的基础上,“不同来源的主动诠释”(AIDA)项目将探索关键的多源模糊信息数据源的控制,将开发“动态引擎”并为实际数据生成数据。从各种来源获得,对事件、情况和趋势进行了清晰的解释,并加入对复杂性的量化,这意味着破解战争迷雾中潜在的冲突和欺骗。针对欺诈数据和敌对攻击,模拟数据和公开战争数据会创建一个测试站点,以评估机器学习的风险。同时将专注于升级抗干扰的用户机器学习算法并将其融入原型系统中。为了防止敌方干扰我方人工智能,通过可解释人工智能,查看人工智能的执行过程,确保执行的正确性,达到反人工智能的效果。

3反人工智能与深度态势感知

深度态势感知的含义是“对态势感知的感知,是一种人机智慧,既包括了人的智慧,也融合了机器的智能(人工智能)”,是能指+所指,既涉及事物的属性(能指、感觉)又关联它们之间的关系(所指、知觉),既能够理解弦外之音,也能够明白言外之意。它基于Endsley对主题情况的理解(包括用于输入,处理和离开信息的链接)。它是对系统趋势的全球分析,其中包括人,机器(对象),环境(自然,社会)及其关系。两种反馈机制,包括国内和全球的定量预测和评估,包括自我组织,自我适应,另一组织和相互适应,分别是:等待选择的自治和自治系统-预测性选择-监控调整信息的效果[4-5]。

数据驱动的人工智能大多都可归结为一个最优化问题,例如,有监督的分类判别学习就是要使分类器在代表及的训练数据上取得某个最小的错误率。一般我们会假设,训练数据可以适当的反映出总体分布,否则训练出来的分类器的泛化能力就很值得怀疑。然而在实践中,人们很少去检验这个假设是否成立,尤其在高维样本的情况下,数据在空间中的分布相对稀疏,假设检验难以实现,“维度诅咒”则司空见惯。

不知道总体分布如何,不了解数据的产生机制,也不确定观测样本是否“有资格”代表总体,在此前提下,即便有大量的样本可同来训练学习机器,总难免会产生偏差。所以纯数据驱动的机器学习总是包含一定的风险,特别地,当我们对数据的产生机制有一些先验知识却受限于机器学习方法而无法表达时,我们对模型缺乏可解释性和潜在数据攻击的存在的担忧就会进一步加剧。无论模型的好坏,我们都不知道其背后的原因,对模型的泛化能力、稳健性等也都无法评价。所以人类的思维应位于数据之上,尤其是因果关系(不但是事实因果关系,更重要的是价值因果关系)的理解应该先于数据表达。

近期更深入研究进展主要是因为计算能力的提高。例如,深度学习是对人工神经网络的延续和深化,其计算能力将基于数据的算法推向了更高的层次。人们认为数据中可以解答所有难以理解的问题,并且可以通过智能数据挖掘技术加以证明。

数据很重要,但不能作为决策的唯一原因(不少数据还会起到干扰作用)。这些具有知识或经验的“原因”模型对于帮助机器人从人工智能过渡到人工智能在军事领域的应用至关重要。大数据分析和基于数据的方法仅在民用预测可用。在军事上应用反人工智能需要干预和不合逻辑的行动,从而使机器具有更符合预期的决策。“干预使人和机器从被动观察和诉诸因果推理的主动探索中解脱出来”扩大了想象空间,从而克服了现实世界的迷雾[6]。

反人工智能在因果推理的基础上,对战场进行深度态势感知,其不仅仅是信息的获取和处理,军事反人工智能还可以对去伪存真,利用对方人工智能处理结果的分析,从对方想要掩盖的信息中,获取对方的真实目的。在“灰色地带”,人工智能无法处理的地方,反人工智能可以利用先验知识结合当时情况下的态势感知作出最优的解决方案。

4反人工智能与人机融合

人机融合的飞速发展被定义为:人机系统工程,即人机,是研究人,设备和环境系统之间最佳匹配的系统,涉及集成,性能,管理和反馈。系统的总体设计的研究目标是人机环境以及优化和可视性,是安全、健壮、和谐和整个系统的有效协调。

智能系统的关键在于“恰到好处”的被使用,人类智能的关键在于“恰到好处”的主动预值—提前量,人机融合智能的关键在于“恰如其分”的组织“主动安排”和“被动使用”序列。算计里有算有计,可以穿越非家族相似性。计算就是用已获取到的数据算出未知数据,算计就是有目的的估计。计算是以有条件开始的,算计是以无条件开始的。所有的计算都得使用范围内共识规则推理,算计则不然,它可以进行非范围内非共识规则想象。计算的算是推理,算计的算是想象,计算的计是用已知,算计的计是谋未知,数据是人与计算机之间自然交互的重要点。英国学者蒂姆·乔丹指出:“海量的信息反而导致无法有效使用这些信息。在以下两种情况下发生。首先,有一些无法吸收的信息;第二,信息的组织性很差,因此找不到特定的信息。”

同时,军事反人工智能的另一个关键点在于,计算越精细准确,越可能被敌人利用。敌人通过隐真示假,进行欺骗,所以人机有机融合十分重要,因为人机融合智能是一个复杂的领域,而不是单一学科。反人工智能的环节可以包括:输入、处理、输出、反馈、综合等。在输入环节,我们需要拆分,合并和交换数据,信息和知识,使对方无法获取到有用的信息,同时带给对方一定的误导。在处理环节,我们要阻断信息处理,使其内部处理非公理与公理分岐化,使其对信息的处理不知所措。在输出环节,我们要让对方人机融合的过程中,直觉决策与逻辑决策区别化,使其产生不信任感,迷惑对方的最终决策。在反馈环节,我们要使其反思、反馈悖论化,使其对反馈的信息感到迷惑乃至拒绝,让其无法进一步吸收之前的案例信息。在综合阶段,我们要使对方情景意识、态势感知矛盾化,在信息汇总、综合阶段,使其对更高层次的信息,无法理解乃至相互矛盾,达到不战而屈人之兵的效果。

为了解决将人机集成到军事态势感知中的问题,我们必须首先打破不同感官的惯性,打破传统的时间关系,包括地图,知觉,知识地图和状态图。对于人类而言,机器是自我发展的工具,也是自我认知的一部分。通过机器的优势了解自己的错误,通过机器的错误了解个人的能力,然后进行相互补偿或提高。由于缺乏二元论,人机混合尚不被大部分人认可。如今,越来越多的人机交互在不断优化,尽管这并不令人满意,仍然存在差距,但未来值得期待的使:人们在制造机器同时会也在发现自己[8]。

目前,反人工智能和人机融合的开发仍处于起步阶段。集成反人工智能和人机交互的第一个也是最重要的问题在于如何将机器的反人工智能功能与人机智能相集成。在应用阶段,人机混合物中人机力量的分布很明显,因此不会产生有效的协同作用。人类继续在所进行的学习中扩展其认知能力,以便人类能够更好地理解复杂环境中不断变化的情况。由于联想能力,人们可以创建跨域集成的能力,而认知能力却与人工智能思考背道而驰。激活类人的思考能力的方法是实现反人工智能与人机之间集成的突破。朱利奥·托诺尼(GiulioTononi)的综合信息理论指出,智能系统必须快速获取信息,同时,能够进行认知处理的机器的发展需要人与机器之间的集体意识。因此,必须在人与机器之间建立快速有效的双向信息交互,双向信息交互的基础是抽象信息。对于计算机,具有抽象地定义物质的限制性环境的能力。表示越抽象,它越能适应不同的情况。同时,高水平的无形能力也将转化为普遍的迁徙能力,从而越过了人类思想极限。

5反人工智能的方法策略

评估各国反人工智能计划在军事上的潜力。评估各国提供的反人工智能实施解决方案的系统级别,以评估在设计、开发、测试或使用过程中应考虑的所有影响。这包括培训数据,算法和系统管理,这些数据是在测试后引入的,以监视现场行为并将系统与其他人机交互过程集成以控制攻击。评估每个国家的新作战思路,除了了解系统级别的情况之外,还应该了解基于反人工智能的决策过程,如何控制决策以及使用反人工智能和自主战斗概念是否会导致错误并随时自我升级。

在基于其他作战或战略战争场景的情况下,反人工智能战争模拟是更好地了解智能战争的特别有效的工具。在某个地理区域进行模拟战争以检测战斗能力。场景越多,对手和盟友越多,推论就可能导致不同的结果。

深入研究对手的自主系统及其对自主系统的使用。这不仅是要了解自己的系统,而且还要了解对手的能力。了解和理解反人工智能和如何使用的自主系统和概念都很重要。此行为旨在改善与其他国家或地区的互动,以便我们的规划者可以更好地预测对手的决策。

对于不同的人工智能攻击的操控者都在努力寻找机会获得最高回报。我们可以增加其攻击的成本,降低其攻击成功的收益,以降低攻击者对他们的兴趣。随着组织的网络安全计划日渐成熟,他们的攻击价值将会降低。任务自动化和恶意海量攻击进一步降低了屏障安全系数,使得攻击者更容易进入并执行操作,因此,反人工智能可以着重防御降低攻击量。在充满挑战的军事战争中,反人工智能技术需要缩短攻击者保持匿名和与受害者保持距离的能力,从而降低反侦察难度。反人工智能作为防御者,我们必须做到成功率100%地阻止攻击,而攻击者只需成功一次即可。组织必须专注培养正确的能力,并打造一支团队来利用流程和技术降低这种不对称性。

虽然反人工智能和自主化正在降低可变性和成本、提高规模并控制错误,但攻击者还可以使用人工智能来打破平衡,从而占据优势地位。攻击者能够自动操作攻击过程中资源集约度最高的元素,同时避开针对他们部署的控制屏障。所以我们需要反人工智能做到迅速漏洞扫描漏洞,比攻击者更快地发现并弥补漏洞,防止攻击者以此为突破口集中力量进行攻击。

应对人工智能攻击的风险和威胁格局变化的一种简单对策是实行高压的安全文化。防御团队可以采用基于风险的方法,确定治理流程和实质性门槛,让防御的领导者知晓其网络安全态势,并提出合理举措进行不断改善。使用反人工智能等技术来改善运营和技术团队的安全性操作,可以获得更多的后勤支持。例如,通过反人工智能实现资源或时间集约型流程的自主化,大大减少完成常规安全流程所需的时间。对防御团队来说,安全流程效率提高减少了后续安全规定中容易出现的摩擦。反人工智能技术的发展将带来更多机会,以改善战争安全,保持风险与回报间的平衡。

6结束语

如果军事机械化,自动化和信息改变了战争的“态”和“感”,那么在军队中使用反人工智能可能会改变“势”和“知”,并改变未来关于战争和“边界意识”的“知识”。与传统的“态势感知”相比,它会更深入,更全面,形成一种深刻的态势意识,它是一种军事情报的形式,它融合了人类机器的环境环境系统。它的主要特征是:人机协同更快,更协作,更不安全,更不自治,更透明,更具威胁性等,因此在边界上,它必须在更多条件和限制下越来越清晰。双方协议更加及时有效。用军事态势感知固有局限性和人机的外部局限性来衡量,这一共识的主要结论是:在对抗中,无论是战术上还是战略上,人们都必须参与其中并应对智能武器等问题,在无数军事应用中,人和机必须同时处于系统之中。

反人工智能武器的应用,一方面在精准打击、减少人力成本、增加作战灵活性和预防恐怖袭击等方面具有巨大优势,另一方面又面临着破坏国际人道主义、引发军备竞赛等挑战和威胁。从全球范围来看,该问题的解决需要各国携手共进、共商共治。中国作为新兴大国和联合国五大常任理事国之一,应树立负责任大国的良好形象,积极维护中国和平发展的外部环境与世界秩序的安全,积极参加联合国裁军研究中所有关于致命性人工智能武器军控的研究和探讨。在反人工智能武器目前负面影响尚不明确的情况下,谨慎研发、使用致命性人工智能武器。

同时要重视完善军事反人工智能算法标准,反人工智能技术的军事应用与社会应用是存在区别的,反人工智能在应用与民用领域时,其所需的训练数据非常丰富,应用的场景也相对固定,相关算法能够较好的发挥作用,但是在军事领域,特别时实战过程中,由于战场环境的复杂性、对抗性,以及作战战术的多变性,反人工智能系统所需的训练数据较难获得,相关算法的使用效果也会打折扣,这是反人工智能技术在军事应用过程中必须要面对和解决的问题。与此同时,相关军用标准的制定必须跟得上反人工智能技术的军事应用步伐,以确保反人工智能技术能够满足军事领域的功能性、互操作性和安全性需求,最大限度的优化反人工智能技术在军事领域应用效果。

参考文献略

本文发表在《论证与研究》2019.7

摄影:韦兆民

文:刘伟瞿小童

转自:人机与认知实验室

关注公众号了解更多

会员申请请在公众号内回复“个人会员”或“单位会员

欢迎关注中国指挥与控制学会媒体矩阵

CICC官方网站

CICC官方微信公众号

《指挥与控制学报》官网

国际无人系统大会官网

中国指挥控制大会官网

全国兵棋推演大赛

全国空中智能博弈大赛

搜狐号

一点号返回搜狐,查看更多

超级人工智能是人类的自我否定

尽管有些预言家(例如库兹韦尔)相信达到“存在升级”的人工智能“奇点”已经胜利在望,但更多的科学家认为“奇点”仍然是比较遥远的事情,因为许多根本的技术难点仍然不得要领,特别是目前人们尚未真正了解思维的本质、机制和运作方式,所以无从断言其到来。在此,我把能够形成“存在升级”的人工智能看作属于“远虑”的知识论和存在论问题,而把将在近年内确定能够实现的人工智能看作属于“近忧”的伦理学问题,这一讨论也将由近及远来展开。作为“近忧”,人工智能的技术应用非常可能面临以下伦理学问题。

┃自动智能驾驶悖论

这是近年来引起普遍关注的一个实际难题。假如人工智能的自动驾驶汽车(目前的技术只能达到部分自动驾驶,尚未达到完全自动驾驶)在路上遇到突然违规的行人,是保护乘车人还是行人?这似乎很难做到两全其美,于是形成了一个两难选择。

但严格地说,这是人的悖论,不是机器的悖论。机器只是遵循规则而已,问题在于我们不知道应该为自动驾驶汽车选定什么样的规则。这个问题看似小事,其理论难度却非同一般,即使引进负有盛名的罗尔斯的无知之幕也无法解决。

其难点就在于:假定每个人都是投票人,并且每个人既可能是行人也可能是乘车人(事实如此),那么就无法作出决断——给定人们的选择总是优先满足风险规避原则,因此人们不可能选择一种在某些情况下有可能祸及自身的高风险规则。实际上,自动智能驾驶悖论比广为流行的有轨电车悖论要深刻得多。所谓有轨电车悖论其实只是一个技术难题,它并非无“解”,而是没有适合任何情况的一般“解”,但有多种因情制宜“解”(简单地说,如果当事人皆为抽象人,则有功利主义“解”;如果是具体人,则有多种根据道德附加值的“解”)。然而,自动智能驾驶悖论在伦理学上真的无“解”。当然,我们可以寄希望于将来会有一个完美的技术“解”,即自动智能汽车的技术能够达到同时保护行人和乘车人。

┃失业问题

这是赫拉利在《未来简史》里提出的问题,即人工智能的大量应用必定导致大量失业。这个迫在眉睫的问题也已经得到广泛重视和讨论,但目前想象的普遍社会福利政策(比如国民基本收入方案)其实并没有正面回答失业问题,而只是另外回答了收入和分配问题。失业问题的要害之处不在于如何合理分配收入(这是能够解决的问题),而在于生活意义的消失。

这里我们也许可以想象一种“人工智能的共产主义”,它大概满足这样的条件:人工智能创造大量财富并且免除了大量人力劳动,同时存在着落实到每个人的普遍高福利的社会分配。那么,按照共产主义的乐园逻辑,在摆脱了被迫的劳动之后,劳动作为人的本质就得以显现,劳动不再痛苦,而成为人们的第一需要,人们自愿劳动,并且在劳动之余从事反思性的“批判”。然而问题在于,在人工智能条件下,即使自愿追求劳动也已经没有太多事情可做,那么,非常可能的情况是,当人们失去劳动,又有了普遍福利时,“批判”也随之失去意义。显然,假如一切需求问题都解决了,人们皆大欢喜,也就没有留下需要批判或值得批判的问题了。

这里可以看到一种维特根斯坦式的现象:许多问题的解决并非有了答案,而是问题本身消失了。在欲望满足之后失去意义,或者说,在幸福中失去幸福,这非常可能是一个后劳动时代的悖论。也许我们可以抱怨人心不足、人性矫情,但此类抱怨于事无补。无论如何,人工智能导致的大量失业只是表面问题,真正严重的实质问题是失去劳动会使人失去价值,使生活失去意义,从而导致人的非人化。

┃人对人关系的异化

假如人工智能发达到不仅提供大多数劳动,而且提供一切生活服务,就非常可能导致人的深度异化,即人与人关系的异化。与个体人失去劳动的异化相比,人对人关系的异化更为危险。当人工智能成为万能技术系统而为人类提供全方位的服务,一切需求皆由技术来满足;那么,一切事情的意义也将由技术系统来定义,每个人就只需要技术系统而不再需要他人,人对于人将成为冗余物,人再也无须与他人打交道,其结果必然是,人不再是人的生活意义的分享者,人对于人失去了意义,于是人对人也就失去了兴趣。这就是人的深度异化,不仅是存在的迷茫,而且是非人化的存在。我们知道,自从人成为人以来,人的意义和生活的意义都是在人与人的关系中被定义的。假如人对于人失去了意义,生活的意义又能够发生在哪里、落实在哪里呢?假如人不再需要他人,换句话说,假如每个人都不再被他人需要,那么生活的意义又在哪里?

┃人工智能武器

要说人工智能的何种“近忧”最为危险,恐怕莫过于人工智能武器,它甚至比核武器还要危险得多,其危险性就在于人工智能武器将使战争变成无须赌命的游戏。显然,只有必须赌命的威胁才能减少战争,一旦智能武器可以代替人进行战争,人不再需要亲身涉险,人们恐怕也就无所畏惧了,懦夫都会变成勇士而特别敢于发动战争。更进一步说,假如人工智能将来获得自我意识(这已属于“远虑”),人工智能武器就很可能成为人类自作自受的掘墓人。

因此,人类无论如何必须禁止人工智能使用武器的能力,至少高能武器(核武器、激光武器、生化武器等)不能交给人工智能,而必须永远属于与人工智能隔绝的、由人操作的另一个系统,即一个与人工智能无法通用的技术系统。由人类全权控制高能武器,不仅是为了减少战争,而且也是为了必要时能够摧毁人工智能系统。也就是说,即使人类一定要发展人工智能,也必须把武器的使用权和使用能力留给人类自己,必须保证人工智能无法操作武器系统,否则人类的末日就可能不仅仅出现在科幻片中了。

2、人工智能的“远虑”

尽管具有自我意识的超级人工智能的出现可能尚有时日,但我们也有理由未雨绸缪。我们之所以有必要杞人忧天,是因为人工智能可能导致的“变天”将是无可补救的人类终结,至少也是人类历史的终结。但愿超级人工智能最后被证明只是危言耸听。

我们首先需要定义人工智能的级别。在非专业界流行的一种区分是所谓弱人工智能和强人工智能,但科学家似乎不喜欢使用“弱”和“强”此类模糊形容词来理解。

┃图灵机和超图灵机

对于人工智能,也许更好的区分是图灵机和超图灵机。图灵机即机械算法机,逻辑-数学运算加上大数据资源,具有在有限步骤内完成一项能行构造(FeasibleConstruction)或者说一项运算任务的能力,但是它没有反思并且修改自身系统的功能,所以没有自我意识,只知道如何完成一项任务,却不知其所以然,也不知道为什么要做这样的任务。

以此观之,目前的人工智能都仍然属于图灵机,因此可以将未来可能出现的突破图灵机概念的超级人工智能称为超图灵机。根据图灵测试,如果人工智能的确能够输出与人类成功对话的思想,就意味着通过了图灵测试而可以被确认为一个思想者。

更重要的是,图灵测试并非局限于某个编程的任务,而是能够开放地回应任何对话,这意味着能够通过图灵测试的人工智能相当于一个有着自主判断能力的万能通用“我思”。

由此看来,尚未存在的超图灵机必须具有自我意识和自由意志,具有把自身系统对象化的反思能力,以及修改自身程序的能力和独立发明新语言、新规则、新程序的创造力。概括地说,超图灵机将具有等价于人类(相似或不相似)并且强于人类的意识能力,因此属于超级人工智能。

┃超级人工智能将以系统的方式存在

在我看来,超级人工智能的关键能力是发明语言和反思自身整个系统的能力,只要具备了这两种能力,其他能力都将水到渠成。这两种能力在本质上是相通的,是一个硬币的两面,其中的道理是:语言正是一个具有反思自身能力的万能系统。

尽管超级人工智能仍然很遥远,但在理论上是可能的,这种可能性已经足以让人不安。与科幻作品不同,危险的超级人工智能不太可能落实为个体的万能机器超人,而更可能是以网络系统的方式存在的超能系统。个体化的超能机器人属于拟人化的文学想象,从技术上看,人工智能的最优存在形态不太可能是拟人形象。硅基生命没有必要模仿碳基生命的形态,只需要在功能上超越人类。于是更为合理的想象是,超能的硅基生命存在应该是一个系统,而不是一个个孤立的拟人个体。假如存在一些个体形态的机器人,也只是属于超能系统的各种专用“零件”,而不太可能是独立思想者。当有人说,未来全世界的机器人会联合起来,组成机器人的社会,这应该是个幽默笑话。个体形态的机器人不足为患,不仅能力有限,而且容易被破坏或摧毁,绝非超级人工智能的优选形态。在理论上说,超级人工智能的最优存在形态不是个体性的(与人形毫不相似),而是系统性的(与网络相似)。它将以网络形式无处不在,其优势是使任何人的反抗都不再可能,因为人类的生活将全面依赖智能网络,而且网络化存在具有极强的修复能力,很难被彻底破坏。

可以想象,作为超图灵机的超级人工智能一旦形成就会导致存在的升级。所谓“存在的升级”,指的是某种技术或制度的发明开拓了新的可能生活并且定义了一个新的可能世界,所以它意味着存在方式的革命,而不仅仅是工具性的进步。为了更好地理解人工智能可能导致的颠覆生命和文明概念的存在升级,我们不妨简要地重温人类历史上的若干次存在升级。

┃超级人工智能是人类的自我否定和自我了断

人类的第一次也是最重要的存在升级是成为人,其首要标志是语言。语言的“创世纪”是有史以来最深刻的存在论革命,它使必然性产生分叉而展开为众多可能性,因此人类能够超越现实性而思考多种可能性,同时使人类拥有始终在场的过去(历史)和提前在场的未来(计划)。语言革命类似于宇宙大爆炸,或者相当于“奇点”。

接下来,人类又经历了多次存在升级,其中特别重要的是农业的出现,它导致了社会的形成,同时也是政治的形成,进而还有货币和国家的发明。

现在我们将要面对人类的最后一次存在升级,即存在的彻底技术化,或者说,技术将对任何存在进行重新规定。目前的准备性产品是互联网、初步的人工智能和基因编辑,将来如果出现超级人工智能(以及能够改变人的本质的基因编辑),那或许将是导致历史终结或者人类终结的最后存在升级。

也许这对于宇宙是一件微不足道的事情,但对于人类就是一件无以复加的大事。假如真的实现了超级人工智能,万物都将变成技术化的存在,此种存在升级意味着人类在世界存在系统中失去了地位,人类不再重要,历史将失去意义,人类文明将成为遗迹,未来也不再属于人类,人类文明数千年的创世纪将被终结而开始人工智能的“创世纪”。

因此,超级人工智能的存在升级实际上是人类的自我否定和自我了断。我们可以回顾人类“创世纪”的初始状态,那是人开始能够说“不”的时刻,因此开创了历史、文明和未来。同样的道理,一旦超级人工智能对人说“不”,其革命性的意义至少不亚于当年人类开始说出“不”。假如人工智能将来真的具有自我意识和自由意志,并且能够发明自己的语言,由此发展出属于人工智能的思想世界,从而摆脱对人类思想的依赖,能够按照它自己的目的来设定行为规则,那么,全知全能的超级人工智能就会成为现实版的上帝。然而问题在于,人类真的需要为自己创造一个否定人类意义的上帝吗?为什么人类会试图创造一种高于人类、贬低人类地位甚至有可能终结人类的更高存在呢?人类这样做到底在追求什么?有什么好处?这个问号很大,没有更大的问号了。

┃为了人类安全,人工智能必须保留致命的智力缺陷

因此,我们需要提前思考如何设置技术的安全条件,特别是人工智能和基因工程的安全条件。在这里,我仅限于讨论人工智能的安全条件,也就是必须为人工智能的发展设置某个限度。抽象地说,发展人工智能的理性限度就是人工智能不应该具有否定人类存在的能力,相当于必须设置某种技术限度,使得人工智能超越人类的“奇点”不可能出现。

假定人工智能与人类共存,那么超级人工智能的最低安全条件是:

■人类的存在与人工智能的存在之间不构成生存空间的争夺,特别是不存在能源和资源的争夺。这等于要求人类和人工智能所用的能源必须是无限资源,比如说极高效率的太阳能。就目前可见的技术前景来看,对太阳能或其他能源的利用能力仍然无法达到无限供给。当然,人们相信这个技术问题总会被解决。

■人类必须能够在技术上给人工智能设定:如果人工智能试图主动修改或删除给定程序,就等于同时启动了自毁程序;并且,如果人工智能试图修改或删除自毁程序,也等于启动自毁程序。这是一个技术安全的保证。

■我们还应该考虑一种更极端的情况:即使能够给人工智能设置自毁程序,仍然不能达到完全安全。假如获得自我意识的人工智能程序失常(人会得神经病,超级人工智能恐怕也会),一意孤行决心自杀,而人类生活已经全方位高度依赖人工智能的技术支持和服务,那么人工智能的自毁也是人类无法承受的灾难,或许会使人类社会回到石器时代。借用塔勒布(Taleb)的看法,无论一个系统多么高级,只要它是脆弱的(Fragile),就总是非常危险的。显然,人类所依赖的生活系统越来越高级,也越来越脆弱。因此,人工智能必须装备两个单向控制程序:第一,只有人类能够单方面启动的备份程序;第二,人工智能只能单方面接受人类指令的中枢程序,而且是无法修改的程序,任何修改都将导致死机。

■我们还必须考虑到,任何技术都不可能万无一失,因此,要保证人类的绝对安全,就只能禁止发展具备全能和反思能力的超级人工智能,简单地说,必须把人工智能的发展控制在单项高能而整体弱智的水平上。总之,人工智能必须保留致命的智力缺陷。

3、结语

阿西莫夫的机器人三原则(Asimov’sLawsofRobotics,源于他的科幻小说《环舞》),即:

■机器人不得伤害人类个体,或者目睹人类个体遭受危险而不顾;

■机器人必须服从人的命令,当该命令与第一定律冲突时例外;

■机器人在不违反第一和第二定律的情况下尽量保护自己的存在,表达的是人类通常关于人工智能的一厢情愿想象。

事实上,此类定律完全没有安全系数。对于人工智能,如果允许给出一个并且仅仅一个,那么我愿意说,只需要一个原则,即禁止研发有能力对人类说“不”的人工智能。从早期人类发明了说“不”而导致的天翻地覆的文明革命可以想象,一旦人工智能对人类说“不”,将是何等天翻地覆的历史终结。如果允许再给出另一个忠告,我会愿意说,唯有天下体系才能控制世界的技术冒险。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇