博舍

人工智能与国家政治安全 人工智能给国家安全带来的机遇与挑战的关键词

人工智能与国家政治安全

  【讲武堂】

  人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。

人工智能影响政治安全的机理

  作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。

  从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。

  从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。

人工智能给政治安全带来新挑战

  技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。

  挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。

  挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。

  挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。

  挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。

  挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。

多措并举,维护我国政治安全

  政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。

  人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。

  当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。

  没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。

  针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。

  (作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)

人工智能的伦理挑战与科学应对

【光明青年论坛】

编者按

2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。

与谈人

彭家锋 中国人民大学哲学院博士生

虞昊 华东师范大学政治与国际关系学院博士生

邓玉龙 南京师范大学哲学系博士生

主持人

刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员

1.机遇与挑战并存的人工智能

主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?

彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。

虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。

邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。

主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?

虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。

邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。

彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。

2.人工智能科技竞争的“伦理赛道”

主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?

彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。

虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。

邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。

主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?

彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。

邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。

3.人工智能安全与人的全面发展

主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?

彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。

虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。

邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。

主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?

彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。

虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。

邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。

(本版编辑张颖天整理)

《光明日报》(2023年04月10日 15版)

[责编:曾震宇]

人工智能与国家政治安全

人工智能与国家政治安全

【讲武堂】

人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。

人工智能影响政治安全的机理

作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。

从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。

从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。

人工智能给政治安全带来新挑战

技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。

挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。

挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。

挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。

挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。

挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。

多措并举,维护我国政治安全

政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。

人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。

当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。

没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。

针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。

(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)

【编辑:田博群】

人工智能时代的国家安全:风险与治理

人工智能正在成为影响未来社会最重要的技术领域,世界各国纷纷出台指导战略,助力人工智能的创新与发展。然而,人工智能作为一项具有颠覆性的技术,其发展过程本身也蕴含着很大的风险与威胁。人工智能技术发展不仅会导致法律、伦理等方面的问题,也会引发国家安全领域的风险与威胁。本文根据人工智能技术和应用的发展趋势,分析国家在不同领域所面对的安全风险,不仅有助于做好安全防范准备,也有助于处理好安全与发展之间的关系。加强对风险的有效应对,可以更好地保障人工智能技术的发展。在此基础上,国家可以从提升风险意识、完善治理体系、加强监管能力和探求国际合作等多方面来构建风险分析和应对框架,提升国家安全的韧性。

人工智能时代的来临

现代意义上的人工智能研究最早可以追溯到20世纪40年代。1950年,英国著名科学家图灵在《计算机器与智能》一文中首次提出了“机器能够思考吗?”这一具有划时代意义的理论问题,并同时提出了测试机器是否拥有智能的方法。

1956年,在达特茅斯夏季学术研讨会上,研究者们接受了计算机专家约翰•麦卡锡提出的人工智能(AI)概念,并将其作为这门新兴学科的正式标签。然而,在随后几十年的时间里,人工智能的发展却并非一帆风顺,虽然在不同时期出现了“专家系统”、“深蓝”等多项具有标志性意义的成果,但由于客观条件的限制,人工智能技术始终无法有效解决人们的现实需求,技术发展无法在产业层面落地,对于现实社会的影响非常有限。真正的突破出现在2009-2010年前后,硬件设备的进步使新一代计算机在运算速度和信息处理能力方面得到大幅提升。互联网产业的发展改变了人类的生活方式,使得网络成为人们获取日常生活数据最集中、最便捷的渠道。移动互联时代的到来,则使来自网络搜索、电子商务、社会媒体、科学研究等不同领域的海量数据迅速累积,为人工智能的飞跃提供了充足的养分。在已具备强大计算能力与大数据环境的情况下,早在60年代就已经被提出的多层神经网络工具焕发出巨大的生命力,重新成为技术发展的主流路径。本轮人工智能发展热潮以“深度学习”为核心,该算法以建立套嵌式的多层次模式识别系统组成的“神经”架构为基础,通过组合低层特征形成更加抽象的高层属性、类别或特征,借以发现数据的分布特点。深度学习的出现带来了人工智能算法的跨越,改变了传统符号主义学派以计算机模拟人类认知系统推进人工智能的艰难尝试,让人工智能拥有了从海量且复杂的信息源中提取、识别和构建体系的能力,在那些任务目标明确且相关数据丰富的领域,深度学习算法能够让机器学习新的技能,制定有效策略,从而在短时间内提出超过人类学习能力的问题解决方案。随着深度学习神经网络成为主流发展方向,人工智能技术很快在现实场景中得以应用。在很短的时间内,人工智能技术就在图像识别、语音识别、机器翻译、自动驾驶甚至棋类竞赛等复杂的应用场景中获得了飞速的进步,基本达到了满足人类日常需求的标准,具备了商业投资的价值,并很快成为资本市场追捧的新热点。迈过产业化的门槛意味着人工智能技术真正走出了实验室,能够对社会生产和人类生活产生直接影响。更重要的是,本轮人工智能技术的进步证明,机器学习算法能够在具有很多限定性条件的领域比人类做得更好,并且能够通过自我学习不断进步。这一结论事实上打开了人类对于人工智能发展的未来想象空间,人类社会已经能够清晰地听到未来社会匆匆而至的脚步声。

人工智能技术与四大领域的安全风险

诚如马克思所言,“科学是历史的有力杠杆,是最高意义上的革命力量”。作为一项具有时代意义的科学思想与技术,人工智能系统能够通过大数据分析和学习理解人类的内在需求,作为创造性的伙伴直接参与到人类改造世界的活动中。它表现出与人类理性思维方式相匹敌的思考能力,在一定程度上改变了人类与技术工具的关系。然而,一切革命性的技术变革都意味着不确定性和风险,人工智能革命也将对经济、政治、军事、社会等领域产生重大冲击。如何在潜在的动荡风险尚未发生时做到未雨绸缪,使技术革命不至于反噬人类本身,是社会科学研究者所肩负的重要责任。在此,本报告分析总结了人工智能技术进步对于社会生活中四大领域所带来的潜在风险,旨在较为全面地展示我们所需面对的挑战。

人工智能技术对于经济安全的影响

经济安全是国家安全的重要组成部分。特别是在冷战结束之后,随着国际体系的内在逻辑变迁,经济安全问题日益被各国政府和研究者所重视,将其视为国家安全的核心组成部分,并逐渐扩展为一个完整的理论体系。其中金融安全、产业安全、经济信息安全都被视为经济安全问题的重要组成部分。人工智能技术在发展过程中首先被视为一项具有明确经济目标的技术创新,其成果对于经济体系的影响也最为直接。因此,在尝试讨论人工智能技术所带来的安全风险时,最为基础的便是其对国家层面经济安全的影响。

结构性失业风险

从历史上看,任何围绕着自动化生产的科技创新都会造成劳动力需求的明显下降,人工智能技术的进步也同样意味着普遍的失业风险。

据美国国家科学技术委员会预测,在未来10~20年的时间内,9%~47%的现有工作岗位将受到威胁,平均每3个月就会有约6%的就业岗位消失。与传统基于生产规模下行所导致的周期性失业不同,由新的技术进步所导致的失业现象从本质上说是一种结构性失业,资本以全新的方式和手段替代了对于劳动力的需要。结构性失业的人们在短期内很难重新获得工作,因为他们之前所能够适应的岗位已经彻底消失,而适应新的岗位则需要较长的时间周期。可以预见的是,主要依赖重复性劳动的劳动密集型产业和依赖于信息不对称而存在的部分服务行业的工作岗位将首先被人工智能所取代。随着人工智能技术在各个垂直领域不断推进,受到威胁的工作岗位将越来越多,实际的失业规模将越来越大,失业的持续时间也将越来越长。这种趋势的演进,对于社会稳定的影响将是巨大的。

贫富分化与不平等

人工智能技术的进步所带来的另一大经济影响是进一步加剧了贫富分化与不平等现象。

一方面,作为资本挤压劳动力的重要进程,人工智能所带来的劳动生产率提升很难转化为工资收入的普遍增长。在就业人口被压缩的情况下,只有少数劳动人口能够参与分享自动化生产所创造的经济收益。新创造的社会财富将会以不成比例的方式向资本一方倾斜。另一方面,人工智能技术对于不同行业的参与和推进是不平衡的。部分拥有较好数据积累,且生产过程适宜人工智能技术介入的行业可能在相对较短的时间内获得较大发展。在这种情况下,少数行业会吸纳巨额资本注入与大量的人才集聚,迅速改变国内产业结构。行业发展不平衡的鸿沟与部分行业大量超额收益的存在将对国家经济发展产生复杂影响。

循环增强的垄断优势

作为一项有效的创新加速器,不断发展成熟的人工智能技术可以为技术领先国家带来经济竞争中的战略优势。人工智能技术的进步需要大量的前期投入,特别是在数据搜集和计算机技术方面的技术积累对于人工智能产业的发展至关重要。但各国在该领域的投入差距很大,不同国家在人工智能技术方面的发展严重不平衡。而人工智能技术自身潜在的创造力特性又能使率先使用该技术的国家有更大的机率出现新一轮技术创新。如果这种逻辑确实成立,那么少数大国就会利用人工智能技术实现有效的技术垄断,不仅能够使自己获得大量超额收益,使本已十分严重的全球财富分配两极分化的情况进一步加剧,而且将会随着时间的推移使差距进一步拉大。在这种状况下,处于弱势地位的大部分发展中国家应如何在不利的经济结构中维持自身的经济安全就将成为极具挑战性的课题。

小结

人工智能技术的发展已经深刻地改变着维系国民经济运行和社会生产经营活动的各项基本生产要素的意义。在人工智能技术的影响下,资本与技术在经济活动中的地位获得全面提升,而劳动力要素的价值则受到严重削弱。在传统工业化时代重要的人口红利很可能在新时代成为新型经济模式下的“不良资产”。新的经济体系的重构过程将会引导全球资本和人才进一步流向技术领导国,留给发展中国家走上现代化道路的机遇期将变得更加有限。人工智能技术带来的全球经济结构调整,将促使经济安全问题成为所有发展中国家所面对的共同挑战。

人工智能技术对于政治安全的影响

人工智能技术对于经济领域的深度影响会自然传导到政治领域,而人工智能技术的特性也容易对现有的政治安全环境产生影响。从议题层面来看,人工智能技术及其背后的大数据和算法能够潜移默化地影响人类行为,直接对国内政治行为产生干扰。从结构层面来看,人工智能所带来的社会经济结构调整,会使资本的权力在政治体系中呈现扩张态势,最终在政治权力分配中获得相应的反映。除此之外,人工智能技术的介入,还将影响国际竞争的内容与形态。因此,对于身处人工智能时代的国家主体而言,如何在变革的条件下有效维护本国的政治安全与秩序稳定,并且提高参与国际竞争的能力,将是所有国家都不得不面对的重要课题。

数据与算法的垄断对于政治议程的影响

技术对于各国国内的政治议程所产生的影响轨迹已经变得越来越清晰,在过去两年中,围绕着2016年美国大选而开展的种种政治运作已经越来越明显地展现出拥有数据和技术能够在怎样的程度上影响政治的结果。

剑桥分析公司事件的出现非常清晰地显示出,只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举制造针对性影响。在人工智能技术的协助下,各种数据资源的积累,使每个接受互联网服务的用户都会被系统自动画像与分析,从而获得定制化的服务。然而,渐趋透明的个人信息本身也就意味着这些信息可以轻易服务于政治活动。正如英国第四频道针对剑桥分析事件所做的评论,“…一只看不见的手搜集了你的个人信息,挖掘出你的希望和恐惧,以此谋取最大的政治利益。”于是,伴随着技术的不断成熟,当某种特定政治结果发生时,你将难以确定这是民众正常的利益表达,还是被有目的地引导的结果。在人工智能时代,数据和算法就是权力,这也意味着新的政治风险。这种技术干涉国内政治的风险对于所有国家都普遍存在,但对于那些技术水平相对落后的广大发展中国家来说,这种挑战显然更加严酷。由于缺乏相应技术积累,发展中国家并没有充分有效的方式保护自己的数据安全,也没有足够的能力应对算法所带来的干涉。人工智能技术的进步将进一步凸显其在政治安全领域的脆弱性特征,传统的国家政治安全将面临严峻的考验。

技术进步与资本权力的持续扩张

国家权力的分配方式从根本上说是由社会经济生产方式的特点所决定的,不同时代的生产力水平决定了特定时段最为合理的政治组织模式。威斯特伐利亚体系中的民族国家体制出现,从根本上说正是目前人类所创造的最适宜工业化大生产经济模式的权力分配方式。因此,当人工智能技术所推动的社会经济结构变革逐步深入时,新的社会权力分配结构也会伴随着技术变革而兴起,推动国家治理结构与权力分配模式做出相应的调整。

从当前的各种迹象来看,资本权力依托技术和数据垄断的地位持续扩张将成为新时代国家治理结构调整的重要特征。人工智能技术的研究工作门槛很高,依赖于巨额且长期的资本投入。当前,人工智能研究中最具实际应用价值的科研成果多出自大型企业所支持的研究平台。超级互联网商业巨头实际上掌握了目前人工智能领域的大部分话语权。人工智能领域研究已经深深地打上了资本的烙印,大型企业对于数据资源以及人工智能技术的控制能力正在形成他们实际上的垄断地位。这种力量将渗入当前深嵌于网络的社会生活的方方面面,利用算法的黑箱为大众提供他们希望看到的内容,潜移默化地改变公共产品的提供方式。在人工智能时代,资本和技术力量的垄断地位有可能结合在一起,在一定程度上逐渐分享传统上由民族国家所掌控的金融、信息等重要的权力。资本的权力随着新技术在各个领域的推进而不断扩张,这将成为人工智能技术在进步过程中所带来的权力分配调整的重要特征。对于民族国家来说,资本权力的扩张本身并非不可接受,大型企业通过长期投资和技术研发,能够更加经济、更加有效地在很多领域承担提供相应公共产品的职能。然而,民族国家能否为资本权力的扩张设定合理的边界则是关系到传统治理模式能否继续存在的重要问题,这种不确定性将成为未来民族国家所面对的普遍性政治安全风险。

技术进步对主权国家参与国际竞争的挑战

人工智能技术进步所带来的另一项重要政治安全风险是使得技术落后的国家在国际战略博弈中长期处于不利地位。

战略博弈是国际竞争活动中最为普遍的形式,参与者通过判断博弈对手的能力、意图、利益和决心,结合特定的外部环境分析,制定出最为有利的博弈策略并加以实施。①由于国际关系领域的战略博弈涉及范围广,内容复杂,各项要素相互累加形成的系统效应(SystemEffects)实际上已经远远超出了人类思维所能够分析和掌控的范畴,传统意义上国家参与战略博弈的过程更多依赖政治家的直觉与判断。这种类似于“不完全信息博弈”的形态给人工智能技术的介入提供了条件。只要技术进步的大趋势不发生改变,人工智能所提供的战略决策辅助系统就将对博弈过程产生重大影响。首先,人工智能系统能够提供更加精确的风险评估和预警,使战略决策从一种事实上的主观判断转变为精确化的拣选过程,提升战略决策的科学性。其次,深度学习算法能够以更快的速度提供更多不同于人类常规思维方式的战略选项,并且随着博弈过程的持续,进一步根据对方策略的基本倾向对本方策略加以完善,提升实现战略决策的有效性。最后,在战略博弈进程中,人工智能系统能够最大限度排除人为因素的干扰,提高战略决策的可靠性。以人工智能技术为基础的决策辅助系统在国际战略博弈的进程中将发挥重要作用,技术的完善将使得国际行为体之间战略博弈能力的差距进一步扩大。缺少人工智能技术辅助的行为体将在风险判断、策略选择、决策确定、执行效率,以及决策可靠性等多个方面处于绝对劣势,整个战略博弈过程将会完全失衡。一旦这种情况出现,主权国家将不得不参与到技术竞争中来。而在资本和技术都处于落后一方的中小国家将在国际竞争中处于不利地位,也将面对严重的政治安全风险。

小结

人工智能技术的快速发展所带来的不确定性将直接影响国家的政治安全。它不仅能够直接作用于国内政治议程,通过技术手段对内部政治生态产生短时段的直接干扰,而且会通过国内社会经济结构的调整,在长时段内影响原有政治体系的稳定。在人工智能时代,国内治理格局需要根据经济基础的变化进行调整,作为大工业时代产物的科层制管理体系应该如何适应新时代的要求,将成为影响民族国家国内政治稳定的重要因素。另一方面,人工智能技术的介入和参与还会进一步拉大国家间的战略设计与战略执行能力的差距,技术的潜力一旦得到完全释放,将使得国际竞争格局进一步失衡,处于弱势一方的发展中国家维护自身利益的空间进一步缩减。国际关系行为体之间将呈现出在技术和制度上的系统性差距,发展中国家将面临更加严酷的国际竞争环境。

人工智能技术对于军事安全的影响

人工智能技术本身并不是军事武器,但它天然与军事安全领域的所有问题都存在千丝万缕的联系。从人工智能技术诞生之日起,如何将其有效应用于军事领域就已被纳入所有技术先进国家的考虑范围之内。这是因为国家的军事行为与公司等经济组织的商业行为拥有相似的逻辑,都要求建立一个有效的系统,以便在竞争性过程中获得胜利。整个过程中同样包含快速获取信息、快速处理信息、做出决策与执行决策等过程。而随着人工智能技术的成熟,它将会被越来越广泛地应用于军事领域,武器系统、军事策略、军事组织,甚至战争的意义可能会发生深刻改变,人类社会也有可能在进入人工智能时代之后迎来一个不同的军事安全环境。 

完全自主性武器的广泛应用将带来巨大的军事伦理问题

人工智能技术不是武器,但能够成为武器性能提升的助推器。一方面,人工智能技术的介入,使大量无人作战武器参与作战成为可能。当前,无人机、无人地面车辆、无人潜航设备已经广泛应用于军事领域,而各国军事部门对于机器人作战系统的兴趣也是有增无减。利用深度学习算法,智能化武器可以在虚拟环境中得到武器操控的基本能力,随后在现实环境中广泛获取数据,并根据数据反馈不断提升战斗能力,学习执行各种战斗命令,最终实现有效应用于复杂的战场态势。

另一方面,随着人工智能技术的发展,算法的更新可以赋予智能武器新的角色与行动逻辑。以智能化无人机为例,利用人工智能技术,无人机已不仅是执行定点清除等特殊任务的执行者,更成为情报搜集、目标定位、策略制定和行动发起的协调平台,担负起前沿信息节点和策略制定等重要任务。此外,人工智能技术的成果同样可以应用于对于各种智能化武器的训练过程中。智能化武器的规模越大,其在战斗中相互协调的优势就越容易发挥出来。通过共同的算法进行“训练”的大批量智能化武器可以协调行动,有助于其最大限度地优化其作战策略,并且根据战场形势和作战目标进行灵活调整,最大限度地获得战场优势。然而,武器系统的快速进步也为国家的军事行为带来了严重的伦理问题。随着技术的进步,完全自主的致命性武器系统能够做到主动识别和选择目标,确定拟对目标施加的武力级别,并在特定的时间和空间范围内对目标实施规定的武力。但自主武器是否有权力在没有人为干涉的情况下自主决定对于目标的杀伤,仍然是人类伦理领域的一个尚无答案的问题。人类社会的运行要建立在很多具有共识性的伦理基础之上,即使是军事行为也有很多明确的国际法规范。然而,这些法律规范都立足于人类之间的战争行为,对于智能化武器的规范尚未形成。特别是处于弱势一方的军事组织,在无法通过消灭有生力量的方式制止对方战争行为的情况下,是否有权利对于对方城市平民发动袭击,迫使对方停止侵略行为?如果这种行为能够被接受,那么军事行动的合法性界限到底在哪里?在这些问题得到有效解决之前,一旦在现实战场上出现智能化武器自主决定对于人类的大规模杀伤,人类社会的伦理原则就将面临重大考验。

更加有效的作战体系的出现很可能触发新一轮的军备竞赛

人工智能技术的进步和智能化武器的发展,可以使人工智能时代的作战体系逐渐趋向去中心化的动态网络结构。由于智能化武器本身有承载作战关键节点的功能,且相互之间能够实现数据和策略共享,因此,在战争过程中能够做到相互取代,从而避免了因为关键节点被攻击而导致整个作战系统失效的结果。同时,人工智能具有更加全面高效搜集战场信息的能力,能够利用智能系统重新构筑战场形态,实现对战场真实情况最大限度的模拟。在人工智能技术的推动下,在军事安全领域能够出现更加有效的作战体系。

事实上,人工智能拥有两个人类无法比拟的优势,其一,人工智能系统可以快速处理战场信息,具有人类所不具备的快速反应能力。其二,人工智能系统具有多线程处理能力,可以同时处理军事行动中同时发生的多项行动,并且提出人类思维模式所无法理解的复杂策略。速度是现代战争中的重要优势,在现代战争信息超载的情况下,成熟的人工智能系统的反应速度和策略安排都将远远超过人类体能的极限。技术的影响将加剧常规军事力量对抗的不平衡状态,缺少人工智能技术辅助的武装力量将越来越难以通过战术与策略弥补战场上的劣势。常规对抗将不再是合理的战略选项,不对称战争将成为这两种力量对抗的主要方式。人类既有的历史经验多次验证了任何科技革命的出现都会使率先掌握新科技的国家与其他国家之间的力量差距进一步扩大。作为人类科技史上最新的力量放大器,人工智能在军事领域已经展现出明显超越人类的能力与持续发展的潜力。一旦技术发展成熟,这种差距已经很难用数量堆砌或策略战术加以弥补,应用人工智能的国际行为体在军事行动中很难被尚未使用人工智能技术的对手击败,国际主体间的力量鸿沟变得更加难以跨越。面对这样的技术变革浪潮,所有具有相应技术基础的大国必然会千方百计地获取相关技术,一场以人工智能技术为核心的新的军备竞赛恐怕很难避免。

人工智能技术会大大降低战争的门槛

在现代国际体系中,战争被普遍视为国际政治行为中的极端手段。巨大的经济成本与伤亡所造成的国内政治压力实际上给战争设置了较高的门槛。然而,随着人工智能技术的介入,战争行动的成本与风险都有明显下降的趋势。

一方面,人工智能技术的介入将能够有效节约军事行动的成本。智能化武器的使用可以有效节约训练过程的时间和人力成本。无人作战武器的训练多依赖于相对成熟的深度学习算法,在初始训练结束后,可以快速复制到所有同类型无人作战武器上,完成作战武器的快速培训过程。最大限度地节省了人类武器操控者需要对所有个体重复培训的人力和物力成本,而且可以从整体上做到所有武器操控的同步进步。从长时段效果来看,这更是一种更加经济、更加有效的作战训练方式。由于算法与数据的可复制性,部分武器的战损对于整体作战效能的影响将大大降低。即使在实际战斗中出现战损情况,其实际损失也要明显小于传统作战武器。另一方面,传统战争模式中最为残酷的一面是战争导致的人员伤亡,这也是现代社会战争行为最为严重的政治风险。而智能化武器的广泛应用实际上减少人类直接参与战斗的过程,人与武器实现实质性分离,将战争活动在很大程度上转变为利用无人武器系统的任务。从而有力地规避了大量伤亡所导致的政治风险。在传统的战争形态中,由于人类的深度参与,战争的双方都有较大的可能出现重大伤亡,这是战争的不确定性所决定的。在现代政治体系中,战争所导致的大量本国人员伤亡会在国内政治领域形成重要的社会压力,客观上增加了大国发动战争的顾虑,提升了战争的门槛。然而,随着智能化武器的广泛使用,人员伤亡能够大大减少,政治风险极大降低。这种情况实质上鼓励大国减少自我约束,更多采取进攻性的行动来达到相应的目的,也会对国际安全形成新的不稳定因素,客观上为大国之间的技术军备竞赛提供了额外的动力。

人工智能技术给网络安全问题带来的重大风险

网络安全本身就是具有颠覆性、杀手锏性质的领域,人工智能的应用将会进一步放大网络安全在进攻和防御方面的作用,从而使得强者愈强。同时,人工智能在网络攻击行动和网络武器开发中的应用也会带来很大的安全风险。这种风险主要表现在对自主选择目标的攻击是否会引起附带的伤害,是否会超出预设的目标从而导致冲突升级。在现有网络领域的冲突中,各方在选择目标和采取的破坏程度时都会非常谨慎,避免产生不必要的伤害以及防止冲突发生。但是人工智能网络武器的使用是否能够遵循这一谨慎,能否将更多在网络安全之外的因素纳入到攻击目标的选择和攻击程度的决策上,仍然存在疑问。因此,自主攻击的网络武器开发应当被严格限制在特定的环境之下,并且精确地开展测试。

另一方面,自主攻击网络武器的扩散将会对网络安全造成更加难以控制的危害。近年发生的网络武器泄露已经给国际安全造成了严重威胁,类似于WannaCry和NotPetya这样源自于美国国家安全局武器库中网络武器泄露再次开发而成的勒索病毒给国际社会带来了几百亿美元的经济损失和重大的公共安全危害。如果更具危害的自主性网络武器一旦泄露,其给网络安全带来的威胁将会更加严重。试想如果恐怖主义集团获得了可以自动对全球各个关键基础设施发动攻击的网络武器,那么将会对全球网络安全造成严重危害。因此,自主网络武器需要有严格加密和解密的规定,并且还应当具有在泄露后自我删除、取消激活等功能。

技术本身的安全问题与技术扩散对于全球安全的威胁

人工智能技术的介入能够使军事武器的作战效能提升,同时推动成本逐步下降,两方面优势的同时存在将使得对智能化武器的追求成为各大国的合理选择,但这并不意味着人工智能技术已经完全解决了可靠性的问题。从目前情况看,人工智能技术本身的安全问题与技术扩散风险仍然不可忽视。

一方面,技术本身仍存在潜在的安全问题。算法与数据是人工智能技术发展最重要的两项要素,但这两项要素本身都蕴含着潜在的安全风险。算法是由人编写的,因此,无法保证程序完全安全、可靠、可控、可信。而从数据角度来看,人工智能依赖大数据,同时数据的质量也会影响算法的判断。军事数据的获取、加工、存储和使用等环节都存在着一定的数据质量和安全风险问题。军队的运作建立在可靠性的基础之上,而人工智能技术本身存在的不确定性会为全球军事安全带来考验。另一方面,人工智能技术的扩散给全球安全带来了威胁。伴随着人工智能武器的开发,国际社会面临将面临严峻的反扩散问题的挑战。恐怖主义组织以及部分不负责任的国家有可能利用各种途径获得人工智能武器,并对国际安全和平产生威胁。人工智能从某种意义上而言,也是一种程序和软件,因此,它面临的扩散风险要远远大于常规武器。经验表明,类似于美国国家安全局的网络武器库被黑客攻击,并且在暗网进行交易,最后被黑客开发为勒索病毒的案例也有可能在人工智能武器领域重现。如何控制人工智能技术扩散所带来的风险将成为未来全球军事安全的重要议题。

小结

人工智能技术在军事领域的深度介入,是核武器发明以来全球军事领域所出现的最重要的技术变革之一。以深度学习为标志的人工智能技术可以增强信息化作战系统的能力,这是改变战争形态的基础。智能化武器的出现在理论上能够为国家提供低成本和低风险的军事系统,能够再次在短时间内放大主体间军事力量的差距,拥有人工智能技术的国家将具有全面超越传统军事力量的能力,使对方原本有效的伤害手段失效。新的不平衡状态可能会造成重大的伦理问题,而中小国家则不得不面对更加严酷的军事安全形势。如果这种状况不能得到有效管控,大国将陷入新一轮军备竞赛,而中小国家则必然会寻找相关军事技术的扩散或新的不对称作战方式,以便维持自己在国际体系中的影响能力。

人工智能技术对于社会安全的影响

作为新一轮产业革命的先声,人工智能技术所展现出来的颠覆传统社会生产方式的巨大潜力,以及可能随之而来的普遍性失业浪潮将持续推动着物质与制度层面的改变,也持续地冲击着人们的思想观念。面对剧烈的时代变革与动荡,世界各国都面临着法律与秩序深度调整、新的思想理念不断碰撞等问题。变革时期的社会安全问题也将成为各国不得不面对的重要挑战,新的思想与行动最终将汇集形成具有时代特征的社会思潮,对国家治理方式产生重要影响。

人工智能技术带来的法律体系调整

人工智能技术在社会领域的渗透逐渐深入,给当前社会的法律法规和基本的公共管理秩序带来了新的危机。新的社会现象的广泛出现,超出了原有的法律法规在设计时的理念边界,法律和制度产品的供给出现了严重的赤字。能否合理调整社会法律制度,对于维护人工智能时代的社会稳定具有重要意义。针对人工智能技术可能产生的社会影响,各国国内法律体系至少要在以下几个方面进行深入思考:

(1)如何界定人工智能产品的民事主体资格尽管目前的人工智能产品还具有明显的工具性特征,显然无法成为独立的民事主体,但法律界人士已经开始思考未来更高级的人工智能形式能否具有民事主体的资格。事实上,随着人工智能技术的完善,传统民法理论中的主体与客体的界限正在日益模糊,学术界正在逐步形成“工具”和“虚拟人”两种观点。所谓“工具”,即把人工智能视为人的创造物和权利客体;所谓“虚拟人”是法律给人工智能设定一部分“人”的属性,赋予其能够享有一些权利的法律主体资格。这场争论迄今为止尚未形成明确结论,但其最终的结论将会对人工智能时代的法律体系产生基础性的影响。(2)如何处理人工智能设备自主行动产生损害的法律责任当人工智能系统能够与机器工业制品紧密结合之后,往往就具有了根据算法目标形成的自主性行动能力。然而,在其执行任务的过程中,一旦出现对于其他人及其所有物产生损害的情况,应如何认定侵权责任就成了一个非常具有挑战性的问题。表面上看,这种侵权责任的主体应该是人工智能设备的所有者,但由于技术本身的特殊性,使得侵权责任中的因果关系变得非常复杂。由于人工智能的具体行为受算法控制,发生侵权时,到底是由设备所有者还是软件研发者担责,很值得商榷。(3)如何规范自动驾驶的法律问题智能驾驶是本轮人工智能技术的重点领域,借助人工智能系统,车辆可以通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术实现无人操控的自动驾驶,从而在根本上改变人与车之间的关系。无人驾驶的出现意味着交通领域的一个重要的结构变化,即驾驶人的消失。智能系统取代了驾驶人成为交通法规的规制对象。那么一旦出现无人驾驶汽车对他人权益造成损害时,应如何认定责任,机动车所有者、汽车制造商与自动驾驶技术的开发者应如何进行责任分配。只有这些问题得以解决,才能搭建起自动驾驶行为的新型规范。归结起来,人工智能技术对于社会活动所带来的改变正在冲击着传统的法律体系。面对这些新问题和新挑战,研究者必须未雨绸缪,从基础理论入手,构建新时代的法律规范,从而为司法实践提供基础框架。而所有这些都关系到社会的安全与稳定。

思想理念的竞争性发展态势

随着人工智能技术的发展和进步,特别是“机器替人”风险的逐渐显现,人类社会逐渐针对人工智能技术也将逐渐展示出不同的认知与思想理念。不同思想理念之间的差异与竞争反映了社会对于人工智能技术的基本认知分歧。同时,不同思想理念所引申的不同策略与逻辑也将成为未来影响人类社会发展轨迹的重要方向。

(1)第一种可能广泛出现的思想理念是:保守主义事实上,在每一次工业革命发生时,人类社会都会出现对于技术的风险不可控问题的担忧,人工智能技术的进步也概莫能外。在深度学习算法释放出人工智能技术的发展潜力之后,在很多领域的人工智能应用系统都仅仅需要很短的学习时间,便能够超越人们多年所积累的知识与技术。人类突然意识到,自己曾经引以为傲的思维能力在纯粹的科学力量面前显得是那样微不足道。更严重的是,深度学习算法的“黑箱”效应,使人类无法理解神经网络的思维逻辑。人类对未来世界无法预知和自身力量有限而产生的无力感所形成的双重担忧,导致对技术的恐惧。这种观念在各种文艺作品都有充分的表达,而保守主义就是这种社会思想的集中反映。在他们看来,维持人工智能技术的可控性是技术发展不可逾越的界限。针对弱人工智能时代即将出现的失业问题,保守主义者建议利用一场可控的“新卢德运动”延缓失业浪潮,通过政治手段限制人工智能在劳动密集型行业的推进速度,使绝对失业人口始终保持在可控范围内,为新经济形态下新型就业岗位的出现赢得时间。这种思路的出发点在于尽可能长地维护原有体系的稳定,以牺牲技术进步的速度为代价,促使体系以微调的方式重构,使整个体系的动荡强度降低。然而,在科技快速发展的时代,任何国家选择放缓对新技术的研发和使用在国际竞争中都是非常危险的行为。人工智能技术的快速发展可以在很短的时间内使得国家间力量差距被不断放大。信奉保守主义理念的国家将在国际经济和政治竞争中因为技术落后陷入非常不利的局面,这也是保守主义思想的风险。(2)第二种可能广泛出现的思想理念是:进步主义这种观点的理论出发点在于相信科技进步会为人类社会带来积极的影响,主张利用技术红利所带来的生产效率提升获得更多的社会财富。进步主义体现了人类对于人工智能技术的向往,这一思想理念高度评价人工智能所引领的本轮工业革命的重要意义。他们解决问题的逻辑是要通过对于制度和社会基本原则的调整,充分释放人工智能技术发展的红利,在新的社会原则基础上构建一个更加适应技术发展特性的人类社会。在进步主义者看来,人工智能技术所导致的大规模失业是无法避免的历史规律,试图阻止这种状态的出现是徒劳的。维持弱人工智能时代社会稳定的方式不是人为干预不可逆转的失业问题,而是改变工业化时代的分配原则。利用技术进步创造的丰富社会财富,为全体公民提供能够保障其保持体面生活的收入。最终实现在新的分配方式的基础上重新构建社会文化认知,形成新时代的社会生活模式。进步主义思想的主要矛盾在于,它的理论基础建立在人工智能技术能够快速发展并能够持续创造足够丰富的社会财富的基础上,从而满足全球福利社会的需求。然而,人工智能技术的发展历史从来不是一帆风顺,从弱人工智能时代到强人工智能时代需要经历多久,至今难有定论。一旦科技进步的速度无法满足社会福利的财富需求,进步主义所倡导的新的社会体系的基础就将出现严重的动摇,甚至会出现难以预料的社会剧烈动荡。

小结

变革必然意味着风险,风险则会带来社会安全的挑战。人工智能技术的发展和进步能够直接作用于经济、政治等多个领域,也对于社会结构将产生深远影响。面对技术所带来的社会安全风险,我们既需要积极调整法律规制体系,努力维持社会稳定,又要在思想层面上对本轮社会变迁进行深层次的思考。虽然面对奔涌而来的人工智能浪潮,不同的思想理念展现的应对路径具有明显的分歧,但无论怎样,我们在思考人类与人工智能技术的关系时,应该始终坚信,人工智能是人类的造物,是人类知识与理性的伟大结晶。人工智能可能给世界带来的威胁远远不及那些人类自己可能创造的恶。我们应该以冷静而客观的态度理解和思考人工智能技术对于社会的影响,在处于变革中的并且更趋不平等的世界创造更加稳定、更加合理、更加体现人类文明与尊严的体系与制度。

人工智能在国家安全领域的风险应对

目前世界各国政府在人工智能领域的主要关注点是推动发展,对其所蕴含风险则准备不足。如上文所述,在人工智能时代,世界各国在国家安全领域面临的各项风险是相当严峻的。从全球层面来看,各国所具备的应对举措还存在较大的缺点。结合人工智能技术特点和应用发展趋势中可能引发的各项潜在风险,我们认为,国家可以从风险意识提升、治理体系建设、加强监管能力和国际合作等多个方面来构建风险分析和应对框架,以提升国家安全的韧性。

提升风险防范意识

提升风险防范意识是应对人工智能时代国家安全风险的重要起点。相对于其他领域的安全风险,人工智能在国家安全领域的风险具有系统性、不确定性、动态性等特点。此外,人工智能是一个新的风险领域,既有的安全治理经验很少,人们很难从过去的经验中吸取教训。因此,无论是风险的识别、预防和化解都是一项全新的挑战。建立相应的风险感知、识别、预防和化解能力框架是现阶段应对人工智能风险的当务之急。

感知风险意识

国家在发展和应用人工智能技术过程中,应当重视提高对技术以及应用的风险意识。由于人工智能技术的复杂性,企业常常处于技术创新和发展的前沿;而国家在某种程度上远离技术的前沿,对技术的感知存在一定的滞后,并且往往是在事件发生之后才被动地做出反应,这样就会错过最佳的干预时期。为了建立主动应对的能力,国家首先需要提高对于行业和领域的风险意识,避免由于风险意识不足导致的危机。

例如,在总体国家安全观以及其包含的政治安全、国土安全、军事安全、经济安全、文化安全、社会安全、科技安全、信息安全、生态安全、资源安全、核安全等在内的11个安全领域中高度重视人工智能发展可能带来的积极和消极影响。特别是在涉及到政治安全、军事安全、经济安全、信息安全、核安全等领域,人工智能所包含的风险已经开始显现,但相应的风险意识并没有跟上风险的威胁程度。在这些重点领域和行业,应当把提升风险意识作为制度性工作。

提升风险意识需要国家密切关注人工智能技术和应用的发展,通过系统思维对其可能在重要安全领域带来的风险进行深度思考。提升意识有助于后续的风险识别、预防和化解的过程,增加国家和社会对风险的重视程度,从而加大资源的投入与人才的培养。

识别风险能力

识别潜在的风险是加强危机应对的重要组成部分,但它又是具有挑战性的工作。人工智能距离广泛应用还有一段距离,相应的风险还在逐步地显现,在缺乏足够的案例的情况下,建立对风险的识别能力是一种具有前瞻性和挑战性的工作。人工智能是一项通用性的技术,有很多方向和突破点,这加大了风险识别的难度。总体而言,主要遵循着技术突破——应用创新——新的风险这样一个过程。识别风险的阶段越早,对于风险的控制就越容易。已有的案例和技术发展的趋势表明,人工智能所带来的风险程度高,往往还是具有一定系统性特征,对国家安全所造成的威胁程度较大。对于国家而言,识别人工智能的风险能力建设是一项长期的工作,需要建立跨学科的知识背景以及相应的跨部门协作机制,在政治安全、经济安全、军事安全、社会安全等领域建立相应的风险识别机制,加强相应的能力建设。

风险预防能力

风险预防是指对已经识别的风险和未能识别的风险进行预防。对已经能够识别的风险领域,应当根据自身的脆弱性,制定相应的预案,并且寻求风险降级的方法。对于未能识别的风险,则需要投入更多的精力,制定相应的规划,评估处置措施。在国家安全领域建立风险预防能力对于政府部门的动员能力有很高的要求。在很多风险的预防问题上,政府都缺乏足够的经验,缺乏成熟的应对机制,但是却需要政府部门能够快速地应对,及时的制定相应的风险预防计划。

风险化解能力

风险化解的能力,最终决定国家在人工智能时代应对国家安全风险的结果。风险意识提高、识别能力加强和建立预防能力都是增加风险化解能力的关键。但是,最终如何化解风险还取决于多方面的能力要素构建。人工智能所具有的跨领域特征,要求首先构建相应的跨部门协调机制。①人工智能所展现的跨国界特征,则要求建立起相应的国际合作机制。总体而言,如果化解人工智能的风险,就需要持续的关注和不断的加强能力建设,这对国家提出了更高的要求。

最后,风险化解一项系统性工程,它并非是要减少和限制人工智能的发展,相反,它是建立在对人工智能技术、应用、影响等多个维度的精确理解基础之上,在发展与安全之间取得平衡的一种能力。风险管控越有效,人工智能发展的空间越大,国家竞争力就越强。因此,提升国家安全领域的人工智能风险意识以及建立相应的管控机制,是保障其未来发展的关键。

构建安全治理体系

在提升风险意识和加强风险应对的同时,国家还应当主动加强人工智能安全治理体系的建设,将更多的利益攸关方纳入到治理体系当中,从技术、产业、政策、法律等多个方面建立安全保障体系。

人工智能是知识密集型和资本密集型的领域,人工智能技术的开发者,包括算法和数据领域的专家以及应用开发领域的人才大多分布在企业、研究机构当中。因此,构建多方参与的治理体系是推动人工智能治理的主要方式。其中,政府作为监管部门,加强与社群和私营部门之间的互动,一方面可以掌握技术和应用发展的趋势和方向,另一方面也可以帮助社群和私营部门更好地理解政府的关切,从而避免因为忽视和误判引起的不必要安全风险。治理不同于管理,很大程度上治理是一种开放、多方参与的过程。很多情况下,治理是自下而上的,强调技术导向的治理方式。它与传统的自上而下、只有政府参与的管理模式存在很大的不同。目前,以多利益攸关方为主要治理模式的机制正在人工智能领域出现。例如,在人工智能的安全与管理领域,正在形成新的以社群为中心的治理机制,IEEE《以伦理为基础的设计》《阿西洛马倡议》是其中的代表。而国际电信联盟这样的政府间组织也在通过多利益攸关方模式发起《向善的人工智能倡议》。政府应与其他的利益攸关方之间加强交流合作,通过相应的互动机制帮助各方更好地理解国家安全领域的风险,以及共同制定相应的风险管控机制;避免由于知识与政策之间的鸿沟影响技术社群、私营部门与政府之间的沟通障碍,导致风险出现以及相应的风险管控措施无法出台。

加强监管能力建设

从国家安全角度来看,政府是应对风险最主要的责任人,加强政府的监管能力是降低人工智能风险、保障技术与产业长足发展的关键。从政府角度而言,建立人工智能的技术标准体系、应用开发的规范体系以及建立与人工智能时代相适应的法律体系是保障监管能力的关键。

技术标准体系

人工智能的技术标准对于技术本身是否存在漏洞、符合相应的安全要求具有重要的作用。技术上的漏洞有可能导致人工智能的系统被黑客或其他不法分子利用,从而危害国家安全。例如很多智能音箱所暴露出来对个人隐私的侵犯,以及无人驾驶汽车由于图像识别能力不足导致的车祸等,都暴露出了人工智能还存着很多的不完善的地方,有可能会引发新的安全风险。对于这些缺陷,应当不断提高技术标准予以克服。

技术标准由技术社群主导建立,直接面向工程师和开发人员,对于提高人工智能应用的安全性具有重要作用。例如,作为主要的人工智能技术社群,IEEE设立了IEEEP7000标准工作组,设立了伦理、透明、算法、隐私等10大标准工作组,通过国际化的标准了影响整个技术社群。2018年1月,中国国家标准化管理委员会宣布成立国家人工智能标准化总体组、专家咨询组,负责全面统筹规划和协调管理我国人工智能标准化工作。标准虽然是面向开发者,但是它作为技术人员所应遵循的基本规范,对于国家安全而言具有重要作用。

程序规范体系

在标准之上,国家还应当在不同的部门制定相应的规范流程,确保对安全风险的控制。以军事领域为例,无论是半自主和全自主的武器系统,其设计应允许指挥官和作战人员在使用武力方面作出适当的人为判断。在决定是否使用人工智能武器时,应当制定明确的规范和流程,避免造成不可预测的后果。同时,还应当加强对人工智能武器的安全性,避免武器泄露或者随意转让相关技术。无论是无意或者有意的扩散都会增加军备竞赛的风险,威胁国际安全体系。

同时对于人工智能军事领域的使用,也应当有一套严格的流程,确保“合法使用”,即负责授权使用、指挥使用或操作自动化和半自主武器系统的人必须遵守战争法、其他国际条约、武器系统的安全规则以及适用的交战规则(ROE)。

法律法规体系

为应对人工智能时代的安全问题,国家应当建立相应的法律、法规体系。国际和国内法律界对此展开了激烈讨论。有学者认为,“智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。”具体而言,人工智能已经在法律资格的主体、致人伤害的责任认定等多个方面提出了现实的问题。

从国家安全角度来看,人工智能的法律、法规所包含的内容更加丰富。从军事领域看,在应对人工智能武器攻击时,如何从国际法角度去认定攻击的性质和攻击的溯源,并应采取何种形式的反击和应对举措?在经济领域,如何去规范人工智能造成的金融系统安全问题?如何明确相应的责任,对相关的企业和人员进行处罚?在政治安全领域,对于类似“剑桥分析”的大数据公司和互联网社交媒体平台,应当如何制定相应的法律法规,禁止其通过人工智能对政治安全进行干扰和破坏?

提升国际合作水平

人工智能所带来的问题具有全球属性,它不是某一国家或者某一领域的治理问题。从技术本身来看,人工智能算法与安全问题是人类共同面临的挑战,具有普适性;从应用角度来看,各国在人工智能的发展和应用上对国家安全造成的威胁是跨国界的;从体系角度来看,人工智能对于地缘经济、地缘安全的颠覆性影响,冲击甚至重塑着现有的国际政治体系,从而影响体系中每一个行为体的国家安全。因此,加强人工智能领域的国际合作对于应对国家安全风险具有重要作用。

国际法

联合国高度关注人工智能对于国家安全的影响,经过2014年和2015年的两次非正式会议后,在2016年12月16日关于特定常规武器公约的联合国会议上成立了致命性自主武器系统(LAWS)政府专家组(GGE)。该小组的任务是研究致命性自主武器领域的新兴技术,评估其对国际和平与安全的影响,并为制定相应的国际法和国际治理提供建议。2018年9月在日内瓦召开的联合国常规武器公约的讨论中,各方就制定禁止人工智能驱动的致命性完全自主武器的条约开展讨论。全球约有26个国家支持全面禁止人工智能武器,而绝大多数国家还在观望,所以这次会议并未达成共识。但是,在规则缺失和大国战略竞争的背景下,军事领域人工智能的发展带来的风险和威胁在不断增加,出台国际法对于减小人工智能安全风险至关重要。

技术强国与弱国之间存在不同的观点是导致相应的国际法难以出台的重要原因。技术弱国认为应当完全禁止致命性自主武器的开发使用,技术强国则持相反意见,认为开发致命性自主武器可以降低人员损伤,有利于打击恐怖主义和维护国家安全,并且很多系统已经在战场上进入实战。军事是推动技术进步的重要因素,互联网就是由美国军方所发明,同样,人工智能的技术发展背后也有军事因素在强力推动。但是,人工智能的军备竞赛也非技术之福,特别是致命性自主武器的扩散会造成更为严重的后果。因此,从联合国层面制定相应的国际法,并且促成大国之间在发展致命性自主武器上达成一定的军控条约是当务之急。当前,在国际法不明确的情况下,各国应克制在军事领域使用人工智能武器。联合国政府专家组也应考虑对国际法此前未曾预见的情况追加法律限制,并以道德或伦理为由尽量减少对人和平民的伤害。更进一步的目标包括管理以下风险,如使用武力的门槛降低、意外导致的伤害、预期之外的矛盾升级以及军备竞赛和扩散。

双边及多边合作

从联合国角度来达成一项谈判可能需要十年甚至更长的时间,鉴于越来越多的风险,大国之间应当及早就人工智能在军事领域应用可能带来的潜在风险开展对话,及早启动相应的军控进程,短期内促成技术强国在谋求战略优势和国际安全体系稳定之间的妥协。同时,各国政府在面对人工智能时代的国家安全问题上面临着共同的威胁和挑战,加强彼此之间的合作是应对威胁的解决之道。

在军事领域,大国之间可以就人工智能的发展以及可能触发的军备竞赛问题开展对话,避免由于过度、过快的开发军事应用而引起的伦理问题,以及对国际安全体系的稳定造成冲击。可以预见,人工智能在军事领域的应用会加速发展,存在的问题也会越来越多。特别是各国之间对于如何看待人工智能武器,如何进行有效互动还存在很大的认知差距。这种差距的存在,导致各国在冲突发生时缺乏有效的应对手段。因此,各国之间应当就人工智能的军事安全问题开展对话,加强管控,增强政策透明度、建立信任措施,降低相应的军事冲突的风险,并且在冲突发生时能够采取有效的危机管控和冲突降级措施。在政治安全、经济安全、社会安全领域,许多国家也都在积极开展各种实践活动,相应的做法之间有很大的相互借鉴之处。各国可以就政策实践、信息共享、最佳实践、案例研究等问题开展有效对话。目前看来,主要的大国并未在双边层面开展相关的对话,由此带来的后果是相互之间的猜忌和不信任程度的增加。令人值得警惕的是,很多人把中国与美国在包括人工智能在内的高科技领域的竞争比作另一个“星球大战”,或者所谓的“科技冷战”,不仅导致了双方之间相互将对方视为敌手,甚至导致了对科学研究、供应链、产品的人为设限。因此,应通过相应的对话机制,通过有效的沟通来寻求更多的合作点,避免由于相互猜忌导致的恶性竞争。总体而言,国家安全风险是人工智能发展过程中各国必须直面的挑战,在面临共同的威胁时,最优的做法是携手应对,通过相应的国际合作机制来降低安全威胁,增加合作空间,让人工智能更好地服务于人类社会的发展,增进人类社会福祉。

作者

封帅,上海国际问题研究院助理研究员,主要研究方向为人工智能和大国关系。

鲁传颖,上海国际问题研究院副研究员,主要研究方向为网络安全与网络空间治理。

(本文选自《信息安全与通信保密》2018年第十期)

声明:本文来自信息安全与通信保密杂志社,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系anquanneican@163.com。

人工智能在网络安全中的 4 大优势和挑战

在本文中,我们将讨论网络安全中的机器学习和人工智能。我们将研究人工智能的好处和挑战、它们在网络安全中的作用以及犯罪分子如何滥用这项技术。

几年来,网络攻击的频率和规模一直在上升。自臭名昭著的大流行开始以来,我们看到了急剧的增长。随着数据安全比以往任何时候都更加危险,越来越多的公司转向人工智能,希望从黑客、网络钓鱼者和其他网络犯罪分子那里获得更强大的数字保护也就不足为奇了。

人工智能不仅仅是增强网络安全的能力,在此处需了解有关AI的一些有趣事实。但首先,人工智能的主要好处是什么?

一、人工智能的应用

顾名思义,人工智能是由机器而非生物展示的智能。

机器学习是人工智能的一个子类别,可识别模式并将其应用于解决问题。目前,AI和ML都在多个领域成功实施,包括:

银行和金融

卫生保健

房地产

零售和电子商务

物流运输

监视

制造业

娱乐和游戏

教育

数字营销

软件开发

最后,人工智能和机器学习在网络安全中不可或缺。

二、 人工智能在网络安全中的作用 

人工智能可以更准确地预测和抵御网络攻击,因为它可以快速处理大量数据。

人工智能使现代企业能够用更有效的解决方案取代传统工具,从而提高生产力。因此,据报道人工智能在安全意识培训中非常有效。

考虑到特定网络安全需求而开发的AI解决方案可以部署更具创造性和节省时间的技术,从而加快入职、在职培训和指导过程。

AI驱动的导师可能会成功地扮演导师的角色,自动将一些任务分配给初级网络安全专家并密切关注他们的进展。

因此,人工智能解决方案将有经验的从业者从监督和指导职责中解放出来,并允许专注于其他更复杂或更重要的任务。

机器学习可以非常有效地对抗恶意软件。它可以扫描大量现有恶意软件的数据库,并在出现新的、修改过的版本时阻止攻击。

AI也擅长网络监控。机器学习可以决定用户行为,当发生意外情况时,将其标记为潜在威胁。

您可能知道,人工智能在打击网络恐怖主义方面也显示出很大的潜力。如今,政府、公司和大公司将希望寄托在人工智能上。

人工智能技术被认为有助于改善国土安全和各州保护公民隐私权的能力。更重要的是,人工智能使专门机构能够分析广泛人群的活动并更迅速地识别潜在危害。

人工智能和机器学习的最新发展扩大了进行网络监控的能力,而无需花费大量资源。AI技术现在被广泛用于通过IP网络进行在线监控、接收、传输和处理数据。

好消息是,人工智能可以在不侵犯隐私和数据保护人权的情况下进行监控。

AI允许加密视频数据并防止数据滥用。

人工智能在生物识别身份验证中也发挥着重要作用,这有助于消除对密码的需求。这可能是个好消息,因为惊人的80%的数据泄露与弱密码和不可靠密码有关。

最重要的是,人工智能驱动的解决方案可以在威胁出现时立即发现和解决它们。因此,人工智能使网络安全专家能够积极主动并采用可用的最佳方法来消除威胁。

此外,当需要更快地处理关键漏洞时,人工智能技术可以派上用场。在检测应用程序、数据库等中的弱点时,人工智能的效率提高了40%。

而且它们不仅仅是一些可能偶尔会破坏用户体验并妨碍安装新功能更新的普通错误。我们谈论的是黑客可能用来访问用户私人信息的可利用漏洞。

尽管如此,通过机器学习,教系统如何有效地发现危险、逐行筛选恶意代码并提出可以及时修补系统的可行解决方案变得更加容易。

三、人工智能的主要挑战 

尽管AI为网络安全行业带来了所有无可争议的好处,但它绝不应被视为灵丹妙药。人工智能不一定是终结网络攻击的全能解决方案。事实上,它也带来了挑战。

首先,重要的是要记住人工智能技术并非无敌。如果黑客设法访问它们,则可以操纵Ai执行的某些任务。例如,一个支持AI的程序可能会被欺骗,将恶意软件或危险的用户行为标记为安全或正常,或者相反。

在用户中非常流行的生物特征认证也可能被证明是危险的。落入坏人之手的生物识别信息可用于监视或其他侵犯用户隐私的行为。

与密码不同的是,您无法对生物识别数据进行任何更改。这给用户带来了另一个问题。人工智能技术使我们能够收集和处理比以往更多的数据。因此,它可能会导致数字隐私和安全性进一步恶化。

AI带来的另一个挑战是它的实际实施成本。由于大量人工智能仍处于其发展的初级阶段并且处于试验阶段,因此与它相关的成本对于许多企业来说可能太高了。

如果犯罪分子利用人工智能解决方案的力量会怎样?这将使黑客能够非常快速地进行更大、更复杂的攻击。与网络监控和学习用户行为模式一样,犯罪分子也可以应用机器学习来确定某些网络攻击为何以失败告终,并设计出更强大、更有效的攻击模型。

AI还可用于创建类似于受信任软件的恶意软件。它可用于了解有关目标网络模式的更多信息,并在不被检测到的情况下执行危险攻击。

黑客还可以使用人工智能通过深度学习进行更强大的攻击。当研究人员向AI提供数百万泄露的密码并委托它生成新密码时,该程序的成功率达到了惊人的24%。

四、改进安全措施的方法

那些旨在增强其基于人工智能的网络安全系统的公司应该投入足够的时间和精力来配置强大的网络安全政策。建立高效的网络拓扑以更有效地管理所有用户的网络也很重要。

这也将帮助网络安全专家更快地定位和解决问题。人工智能本身可用于设计有效的网络安全策略、政策和记录网络流量模式。

最后,为了充分利用AI驱动的系统和解决方案,公司应特别注意只雇用信誉良好且经验丰富的软件开发人员。有大量公司和个人开发商声称在开发人工智能网络安全解决方案方面具有高素质和经验,这使得选择合适的服务变得更加困难。

除非您拥有一支成熟的专业团队,否则请务必仔细研究所有可用选项,切勿让您的网络安全程序开发靠运气。

最后但并非最不重要的是,那些使用人工智能和机器学习技术的公司和机构应该注意不断改进和更新他们现有的解决方案。

与任何技术一样,人工智能驱动的解决方案往往比您想象的更快过时。因此,及时了解网络安全领域发生的任何变化并及时实施修复和更新至关重要。

那么,人工智能会接管网络安全吗?未来几年,它肯定会在数字安全行业中发挥更突出的作用。到2026年,人工智能市场有望达到350亿美元以上。而且由于它既强大又充满希望,人工智能正在成为网络安全行业不可或缺的一部分。 

人工智能为网络安全部门提供了在尽可能短的时间内自动检测威胁和数据泄露、预测和抵御恶意攻击所需的工具。人工智能和机器学习的发展也有助于为初学者网络安全专家提供及时和更有效的培训,并使资深从业者能够专注于更重要的任务。

虽然相对年轻,但人工智能在增强网络安全方面已经走了很长一段路。在这项有前途的技术最终能够充分发挥其潜力之前,还有更多的挑战需要克服并达到新的高度。

系列回顾

⊙秦安:阿富汗陷入内战危机,美国罪不可赦,需警惕其针对中国的网络战争

⊙牟林:中国如何突破西方媒体的封锁?三个路径和三个根本值得重视

⊙牟林:中国支持去殖民化,既要解气,更要有实效,共同迎来新世界

——END——

【思享家】人工智能赋能中国式现代化:发展机遇及风险挑战

作者:张成岗(清华大学教授、社会治理与发展研究院院长)

人类文明演进中的“现代化”议题

持续的基于创新的发展是近代才出现的一种导致经济发展不均衡分布的历史现象。14世纪开始至麦哲伦环球航行结束的地理大发现对欧洲影响极为深刻,使得封闭于西方一隅的欧洲走向世界,极大地开阔了视野、丰富了认识,尤其是对世界多样性的认识。地理大发现增加了各种文明相互摩擦、碰撞、借鉴、交流和融合的机会,开启了一直持续至今的全球化进程,对世界范围的现代化影响巨大。长期以来,由于西方发达国家的科技迅速发展,国家之间经济、贸易、社会、产业、人员之间联系越来越密切,人们之间交往更加频繁,国家之间、区域之间一体化趋势日益明显。

随着近代资本主义大工业的形成以及资本在全球市场的不断扩张,人类社会进入一个崭新时代,人类科技水平不断提高,社会秩序、文明形态和生活面貌发生巨大改变,现代化发展的意义空前凸显。人类文明进步建立在摆脱传统、冲破偏见基础之上,通过一系列改革在政治、经济、文化、社会、生态等各个领域取得重要成就。世界各国现代化道路复杂多样,既相对独立又相互关联。正如习近平总书记指出,现代化不是单选题。历史条件的多样性,决定了各国选择发展道路的多样性。现代化具体形式与各个国家具体国情、制度禀赋和文化传统相结合,呈现出不同特点。

在学理意义上,中国式现代化正在以其伟大实践实现对传统与现代、中国与西方、全球化与地方性二分思维及其叙事模式的超越。中国正在打破西方对现代化标准垄断,探索出一条不同于西方的社会主义现代化新路,创造属于自己的发展经验,为现代化理论作出重要贡献,为其他国家制定增长和发展计划提供启示借鉴,有助于人类文明多元发展与持续进步。中国式现代化道路着眼于世界现代化发展历史进程,积极探索建立新型现代化发展道路和人类文明新形态,能够在更高层次引领和推动全球治理体系和治理能力现代化。

“第四次工业革命”正在开启人类历史新阶段

新一轮科学技术革命是中国乃至世界的最大现实,也是哲学社会科学研究者需要关注的重大议题。新工业革命正在深刻改变人类生产和生活方式。信息技术是新科技革命的龙头,正在向各个领域深度渗透,深刻改变着人类生产和生活方式。基于持续的技术创新和颠覆,以数字化、网络化、机器自组织为标志的“第四次工业革命”正在开启人类历史新阶段。

进入21世纪以来,大数据和人工智能蓬勃发展成为新工业革命的显著标志,并将重塑人类生存和生活的现实空间。第四次工业革命自2013年提出以来,迅速从发展理念转变为产业现实,并深入到社会生活的各个方面。第四次工业革命并不满足于“智能工厂”,而已经向着第四次科技革命迈进,预计将会在新一代信息技术、生物技术、新能源技术、新材料技术、智能制造技术等领域取得突破性进展。新一轮的科技革命将和以往每次科技革命一样,与全球政治、经济、文化、社会、环境进行新一轮的相互建构,并在根本上变革现代人的核心观念、认知方式、行动原则。

新工业革命不仅是一场技术与产业革命,对全球价值链结构、全球产业竞争格局产生深刻影响,更是一场社会、文化、价值与思维等领域的全景式整体性变革,将提供社会转型新动能,为社会发展带来新机遇。顺应形势把握住人工智能带来的重大历史机遇,可以带动国家整体竞争力的整体跃升,为处于转型期的中国经济社会发展提供强大动能。作为一项引领未来的战略性技术,推动和发展人工智能已经成为国际社会的共识,然而人工智能提供社会发展动力,赋能和助力现代化发展的同时,也对经济、社会、就业、伦理、安全诸领域提出新挑战。人工智能时代机遇与挑战同在,应当加强人工智能技术发展研判和预测,增强风险意识,更好应对人工智能技术可能导致的失控风险、伦理挑战、就业影响,促进科技治理能力现代化。

人工智能赋能中国式现代化新征程

科学技术是一种在历史上起推动作用的革命力量。科技创新是提高社会生产力、提升国际竞争力、增强综合国力、保障国家安全的战略支撑。人类从农耕文明到今天智能时代,均以科技工具出现重大变革为时代标志。当前,区块链、人工智能、大数据、物联网等新兴技术的创新发展和社会应用突飞猛进,正在给现代化的内涵、体系、方式带来创造性变革。科技进步提供了现代化的基本框架及结构,引领现代化新趋向。人工智能已经成为新一轮国际竞争的焦点和经济发展新引擎,也将为现代化建设带来新机遇。

首先,科技是现代化的基本构成。科技创新是中国式现代化的重要支撑。科技是国之利器,是“国家赖之以强,企业赖之以赢,人民生活赖之以好”的核心要素。现代性诞生于主客两大观念领域的分离,实现在实践中人对自然的科学化认识、技术化改造。现代化是奠基于科技化之上的社会整体现代性呈现,一个现代化国家的基本构成就是科学技术。

其次,科技是现代化的关键动力。伴随着人工智能产业关键技术实现突破,以及新兴技术场景应用建设的加快,科技赋能成为高质量发展的显著标志,科技创新成为引领现代化建设的重要动力。一方面,人工智能是新兴科技重大革新的结果;另一方面,作为革新的基础,人工智能发展又在世界各地更大程度、更大范围推进了现代化发展。现代化在各个社会阶层之间、国家之间、人与非人存在之间,主要是以科技为载体展开。现代性观念本身,也是从人对科技后果反思中获得的。科技的自主性与反身性,推动着现代化进程,以及对现代性的超越。

最后,科技创新深度推进和引领社会发展变革。近年来,我国坚定实施创新驱动发展战略,以科技创新为核心带动全面创新,以体制机制改革激发创新活力,加快建设创新型国家,为全面建设社会主义现代化国家提供强有力战略支撑。在新科技革命背景下,机器人与人工智能已经成为下一个产业新风口和产业转型升级新机遇。科技变革了社会物质生产方式,是调整社会中各种关系的基础与动力。每一次社会结构的变革,都起于科技发展的需求与结果,也都创造出下一次科技变革的社会基础。科技革命提供了发展方向,未来人类社会是深度科技化的,而科技发展的方向标注了人类发展的进程,原有学科的创新以及新学科的建立,都提供了一窥未来社会形态的途径。

走向“好的人工智能社会(GoodAISociety)”

发展科学技术是近代以来中国建设现代民族国家努力的重要组成部分,大力发展人工智能技术是当代中国创新型国家建设的重要组成部分,人工智能的快速发展要求我们对其风险及其挑战有全面和系统认知。

1.人工智能发展中的伦理风险

人工智能在带来生产方式、生活方式以及思维方式的重大变革的同时,也给当代社会带来了哲学和伦理挑战。新兴科技正在重塑人类的社会秩序和伦理规范。不道德地使用人工智能,是否会导致人工智能取代人的功能,甚至取代人的主体地位?实际上,新兴科技伦理规约所面临的现代性困境其实在于责任问题,如何确定人工智能技术活动及其后果的责任主体,是人工智能发展必须要考虑的问题。在新兴科技的伦理规约挑战中,技术设计的美好愿望与技术后果失控风险存在矛盾。技术与伦理的内在冲突呈显于技术发展的不同阶段。只有处理好新兴科技与人、社会及环境的关系,处理好高效率存在方式与真正的进步之间的关系问题,才能给人类和新兴科技的和谐发展提供一个良性环境,真正实现“善治”与“善智”的互构。

2.人工智能的就业冲击及社会风险

历史上,工业革命的一个重要影响就是机器对劳动力的补充或取代。在新技术革命浪潮中,新兴技术作为节约劳动力速度的工具超过了社会为劳动力开辟新用途的速度,人工智能正在挑战社会就业结构。伴随着人工智能技术的迅速发展和应用,人们抑或会进入一个技术性失业率不断上升的时代。随着人工智能发展,新型机器人正在成为社会生产和生活中极具竞争力的“新型脑力劳动者”,这种“新劳动者”的职业优势已经体现在诸多行业。随着人工智能广泛应用,第二产业中的“第三产业”将重构人群就业结构,对社会稳定性构成挑战。

3.人工智能时代整体图景缺失的挑战

人工智能时代是通过程序呈现的世界图像在时间序列上的布展;然而,技术的复杂性往往会掩盖人类重要活动的复杂性。时代的困境在于人类无法将复杂的世界组成可以理解的整体,在享受技术便利的同时,失去了对复杂技术系统的控制。人工智能时代正面临整体图景缺失的挑战。在网络时代,互联网可以在相当程度上提供有用网络知识,但互联网不能为我们提供对网络知识的“理解力”。互联网非但不能为我们提供理解能力,而且可能阻碍理解能力的发展。实际上,与其他技术类似,人工智能技术的复杂性存在掩盖人类重要活动复杂性的风险,社会技术网络并不能自我调整和校正,便捷化人工智能技术的使用对整体化的时代图景形成挑战,不能把人类发展放在不确定性根基之上。

4.构建“好的人工智能社会”的挑战

人民对美好生活的向往,就是中国式现代化的奋斗目标。进入新时期,要坚持以满足人民群众日益增长的物质文化需要,提升人民群众对美好生活的满意度作为全面推进现代化各项工作的目标旨归,推动人工智能融入社会转型发展的前瞻性创新、过程性监测、后果性评估,切实让人民群众的生活更和谐更美好。

构建“好的人工智能社会”是全人类面临的严峻挑战。人工智能在生产活动和社会活动中的作用日益增加,人工智能甚至在对人类的智慧能动者唯一地位提出挑战。“让生活更美好”的人类愿景正面临如何构建“好的人工智能社会”的紧迫挑战。人类无疑具有独特性,无论是什么样的机会和环境造就了今日的人类,这样的机会并没有出现在人类的近亲所生活的环境中,技术产物的终极制造者还是人类,但人类要预防技术发展可能的风险。

总体而言,AI的最高原则是安全可控;AI的愿景是促进人类更加平等地获得技术能力;AI的存在价值是让人成长,而不是取代人和超越人;AI的终极目标应当是为人类带来更多的自由和可能。面对AI的崛起及其全面融入社会生活,我们需要清醒客观的判断和扎实冷静的努力。人类不能让舒适的假象迷惑主体性意识,人不能放弃自己而沦落成为技术决定论的服从者。成为决定论的服从者会导致被奴役,被技术所奴役;人在获得“表面上的自由”的同时,不能放弃“真正的自由”。技术起源于机器,但是技术不等于机器;机器与人工智能仅仅代表技术的一部分,关注人本身始终应当成为科技发展的目标和动力!

(本文系贵阳市南明区社会治理现代化专题项目(04150201022)、国家社科基金重大项目(19ZDA040)阶段性成果))

[责编:郑芳芳]

抓住新一代人工智能发展的重大机遇

新华社北京11月1日电 题:抓住新一代人工智能发展的重大机遇

新华社记者胡喆

深度学习、跨界融合、人机协同、群智开放……当今时代,从田间到餐桌、从工厂到商场,人工智能已全方位融入人类生活的方方面面,无疑是引领新一轮科技革命和产业变革的战略性技术和重要驱动力量,具有溢出带动性很强的“头雁”效应。

10月31日下午,中共中央政治局就人工智能发展现状和趋势举行第九次集体学习,为我国新一代人工智能的发展和利用作出顶层谋划和设计,明确了我国人工智能发展的方向与目标。

从阿尔法狗“惊艳亮相”到资本在人工智能风口“高歌突进”,一个共识愈发清晰:“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”,必须加快推动我国新一代人工智能健康发展,为赢得全球科技竞争主动权创造有利条件。

人工智能带来创新发展的重大机遇,而我国在人工智能的基础理论、核心算法、高端芯片等方面,原始创新成果还比较少,还没有形成有国际影响力的生态圈和产业链,与发达国家相比仍有短板。推动人工智能健康发展,应以关键核心技术为主攻方向,夯实新一代人工智能发展的基础。必须坚持以需求引领发展,强化基础研究和基础设施,激发微观主体创新活力,大力加强人才培养。

当前,人工智能发展仍然处于“婴儿期”,拥有巨大成长空间。人工智能在产业升级、产品开发、服务创新等方面具有很强的技术优势,应加强人工智能和产业发展融合,培育新增长点、形成新动能,以人工智能技术推动各产业变革,促进人工智能同一、二、三产业深度融合。

萌萌的HelloKitty,呆呆的“小胖”,幽默的“优优”……2018世界机器人大会上,一大波可爱俏皮的机器人闪亮登场,“TA们”悄然走进人类生活,展现了以往所无法想象的智能生活。

在《未来简史》一书中,作者为人们描绘了这样一幅场景:“人工智能从你出生那天就认识你,读过你所有的电子邮件,听过你所有电话录音,知道你最爱的电影……”

进入人工智能时代,万物智慧互联,未来有着巨大的发展空间。积极保障和改善民生,为人民创造更加美好的生活、更加智能的工作方式和生活方式,人工智能方兴未艾、正当时。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇