博舍

人工智能带来的社会发展难题有哪些 人工智能发展可能带来的问题包括什么

人工智能带来的社会发展难题有哪些

导读:人工智能对人类社会具有极强的渗透力,它的快速发展是经济发展、社会变革和人类解放的强大推动力。但是随着人工智能的发展,人工智能对人类社会、人类本身都产生了重大影响,技术威胁与困境也不断涌现。一、人工智能技术发展形成新控制形式人工智能的广泛...

人工智能对人类社会具有极强的渗透力,它的快速发展是经济发展、社会变革和人类解放的强大推动力。但是随着人工智能的发展,人工智能对人类社会、人类本身都产生了重大影响,技术威胁与困境也不断涌现。

一、人工智能技术发展形成新控制形式

人工智能的广泛应用引起了社会关系和结构的变化,产生了新的社会控制形式,即技术控制。西方发达国家企图通过技术颠覆现有生活秩序,控制其他国家。在资本主义条件下,资本的属性决定了科学技术的资本主义性质,它给生产机器注入了获取剩余价值的价值指向。

人工智能时代,世界大范围内依然处于资本逻辑的掌控之中,技术格局呈现资本主义发达国家大幅度领先于发展中国家,西方大幅度领先于东方的局面。人工智能技术带来的丰富物质资料和更多自由时间,但是其背后是由资本家所主导策划制造的“虚假需要”。

因为当今世界依然是资本主义在主导政治经济秩序,资本家将实现个人需要与社会需要等同起来,个人把社会需求变成了自己的需求,这就必然把自己利益和命运同整个社会的利益和命运联系在一起,企图通过技术对世界市场体系进行控制,而人们实际上更多的是在资本利益的引导下做行为选择,更可能走向一种强者利用人工智能技术控制其他人的世界。

更可怕的是,这时人的异化是自愿的、享乐的异化,人自愿沉溺于由人工智能技术打造的“舒适圈”中,盲目崇拜金钱和人工智能,逐步沦为人工智能的附庸,压抑人类对美好生活的需要。

此外,在资本逻辑的主导下,西方发达国家企图通过人工智能技术实现对其他国家的全方位控制。他们企图通过世界市场体系、互联网空间等挑起社会问题,实现自己的统治利益。

对于发展中国家而言,发达国家通过人工智能技术带来的社会问题,通常是带着资本进行技术统治的意识形态需要的,这给发展中国家的意识形态安全构成了威胁,人工智能技术成了发达国家统治的帮凶,形成了一种新的技术控制。

二、人工智能的局限性阻碍人类实现美好生活

实现美好生活是人类亘古的追求,在人工智能时代也不例外!人工智能发展与人类美好生活追求的目标是一致的都是为了实现人类的自由解放,但是在发展和实现的过程中也会存在矛盾和冲突。

第一,社会阶层复杂,对美好生活的追求不同以及人工智能技术发展存在局限,不能满足人类美好生活的需要。每个群体追求的利益有所不同,所以人们对人工智能技术的要求会有差异,人工智能在满足人类某一需要的时候,但是人工智能技术存在算法的局限、计算机的局限和智能化形成方法的局限等问题。

在很多情况下会有超出人类的预想的可能,具有一定的风险,甚至可能使人工智能转化为一种反人类的敌对力量。人们所处的立尝阶级不同,对利用人工智能所达到的目的不同,会产生不同的结果。当今世界间谍卫星、监控技术、计算机病毒等,都在一定的程度上扮演着这样的角色。因而,人工智能技术发展的局限性,不能满足不同阶层人民对美好生活的追求。

第二,人类认识人工智能的局限性和完善人工智能,需要一个历史过程。目前,人类对人工智能技术的研究尚处于探索开发阶段,要达到对人工智能技术效果的全面而深刻的认识需要一个漫长的历史过程。从人工智能的发展来看,人工智能的一切负面效应、不良结果的产生需要一个过程,人类对它的认识也需要一个过程。

认识和改进人工智能技术,使人工智能造福于人类不是一蹴而就的。人工智能技术的进步总是依赖于对人工智能认识的深化,而由于受到主客观条件的限制,人类的探究与开发总是会存在一定的历史局限性,也不可能创造出只有正面效应,而无负面效应与风险的人工智能技术。人工智能技术还需要不断地发展,才能满足人类美好生活的需要。

三、人工智能技术发展造成人类新异化

自人工智能诞生以来,许多科学家、思想家对人类前途和命运就存在着忧虑和恐惧,担心人工智能“超越人类、威胁人类的独特性和在宇宙中的主导地位”,甚至有可能毁灭人类和人类文明。有学者认为随着人工智能的快速发展,会出现具有自主意识的超级人工智能,超级人工智能对“人类的先天优越性、主导地位和尊严带来了巨大的冲击”。

总而言之,这些担忧归结起来就是人工智能会消解人类的主体性,取代人类的主体地位,给人类造成“新异化”。但我们也应明白,人工智能是人类社会在生产和发展过程中产生的一种辅助人类改造社会和实现人类自由全面发展的工具,就其本身而言,是没有主体性的。

既然说就其本身而言,人工智能是没有主体性的,那么它怎么会消解人的主体性呢?这主要归因于人类,人类把自身的一些工作交给人工智能去完成,人类也就把改造世界的一些权力让渡给人工智能,使得人工智能在进行工作时具有主体性的支配作用。

技术已经成为人类生存其间的新的特定的环境,自人工智能诞生以来,人工智能与人就处于复杂的纠缠之中。当今世界,人们越来越依赖于利用人工智能来支配和改造配合,改善自己的生活,但是反过来,人工智能也会对人造成压制和异化,“如果我们把技术当作某种中性的东西,我们就最恶劣地听从技术摆布了”。

人工智能时代,人工智能技术逐渐渗透到人类生活生产的各个领域,影响着人类美好生活的实现。自人工智能诞生以来,近代人类社会的生产表现为高度机械化、程序化,分工和流水线的生产方式得到加强。

有人说“科学家们最大的雄心是把自己周围的世界改造成一架庞大的机器,只要一按电钮,其中每一部分便会按照他们的设计运行”,人工智能使世界成为一个更机械化和程序化的世界,人们的思维方式也会随之机械化、钝化。

马克思认为,衡量人类自由的一个重要标志是社会必要劳动时间以外人所能支配的时间。现在,互联网越来越普及,走进了千家万户,智能手机、电脑和智能手表等,人工智能日益深入人们生活的方方面面,看似人工智能缩短了人类的社会必要劳动时间。

但“随着AI的快速发展与普及,不少人已经不再通过自我逻辑思辨、表达等体验来获得知识和观念,而是通过无处不在的AI快速获得所要的结果”,通过沉溺、网瘾等越来越多地占用了人们休闲娱乐的时间。由此可见,人工智能的发展给人类造成了更全面、更深刻的异化,造成人与人工智能的颠倒,消解人的主体性,阻碍人类美好生活的实现。

这从根本上说是资本逻辑与人的逻辑的矛盾。人工智能的资本逻辑就是将人看作资本增殖和机器的附属物,以追求资本增殖作为最终目标,将资本凌驾于社会之上并以资本驱动人工智能的生产和应用,使人的生产创造活动服务于资本增殖和人工智能的发展。

从资本逻辑出发看待一项人工智能技术发明首先考虑的是利益的因素,发明技术是为了满足人的某种功利的欲望。而从人的逻辑角度看人工智能技术的发展,强调的是人工智能技术存在的合理性和价值性,不仅强调主体的需要,而且强调这些需要的合理性。

但是相对来说,人的逻辑往往容易被人忽视,因为它限定了人工智能技术的发展,强调了人的中心价值观,对资本家和企业家追求最大限度的利益不利。另一方面,在资本逻辑语境下,人工智能具有“文明”与“异化”的双重面相,甚至还会用“文明的面具”掩盖“异化的真相”。

现代社会的发展还是处于资本逻辑支配下的发展,资本逻辑驱动的人工智能在一定程度上优化了“物”的问题,但并不能解决“人”的问题,反而加速了“人”的异化。这就造成一个很大的问题即产生新异化,原本人类利用人工智能技术去实现自己的目的,到后来反被人工智能技术所控制。

四、总结

人工智能带给人类社会的挑战和难题,其实从本质上说,还是商业资本逻辑与人的逻辑之间的矛盾,加剧了人工智能技术与人的发展之间的矛盾,导致了人类异化的产生,阻碍了人类美好生活的实现。为协调人工智能技术发展与满足人类追求美好生活的需求,必须合理限制商业资本对人的无限剥削,保证低收入者群体的生活,使每个人都拥有有尊严的生活。

赞助本站

相关热词:人工智能带来社会发展难题哪些

人工智能与国家政治安全

原标题:人工智能与国家政治安全

人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。

人工智能影响政治安全的机理

作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。

从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。

从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。

人工智能给政治安全带来新挑战

技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。

挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。

挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。

挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。

挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。

挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。

多措并举,维护我国政治安全

政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。

人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。

当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。

没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。

针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。

(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)

(责编:杨虞波罗、初梓瑞)

分享让更多人看到

人工智能伦理问题的现状分析与对策

中国网/中国发展门户网讯  人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 

人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)

奇点临近:福音还是噩耗——人工智能可能带来的最大挑战

我们有理由说,人工智能将带来的最大挑战,还是将超越人类智能的超级智能的可能出现。无论乐观者还是悲观者,有一点是共同的:都认为这可能是人类发展到今天的一个最重大事件,相对于其他问题来说,这一定是一个人类将遇到的最重大的问题。本文原载《探索与争鸣》2018年第11期。

电影《2001太空漫游》剧照

“奇点(singularity)”的概念本身就让普通读者感觉奇怪,难以捉摸,它有数学、天文学上的多种含义,我这里自然主要是在人工智能的范围内使用。简要地说,“奇点”就是指机器智能超过人类智能的那一刻,或者说智能爆炸、人工智能超越初始制造它的主人的智能的那一刻。

稍稍回顾一下历史。据说,1958年,被誉为“计算机之父”“博弈论之父”的约翰·冯·伊诺曼在和数学家乌拉姆谈论技术变化时使用了“奇点”一词。科学家同时也是科幻作家的文奇则是第一个在人工智能领域内正式场合使用“奇点”一词的人,1993年,他受邀在美国航空航天局做了一场题为“即将到来的技术奇点”的演讲,他在这篇演讲中引用了1965年古德在一篇题为“对第一台超级智能机器的一些推测”的论文中的话。

古德是第二次世界大战期间图灵密码破译小组的首席统计师兼数学家,他有段著名的话:“一台超级智能机器可以定义为是一台在所有智能活动上都远超人类——不管人有多聪明——的机器。由于机器设计属于这些智能活动的一种,那么一台超级智能机器当然能够设计更出色的机器,那么毫无疑问会出现一场‘智能爆炸’,把人的智力远远抛在后面。因此,第一台超级智能机器也就成为人类做出的最后的发明了——前提是这台机器足够听话且愿意告诉我们怎样控制它。”

我们在这些文字中可以看到,古德虽然谈到了人类“最后的发明”,但并没有充分感到这是对人类的巨大威胁。他在上世纪中叶人工智能尚未充分发展的情况下,大概觉得这一超级智能还是能够听从人的指挥,只是人发明出它之后,无需再发明什么了,有更聪明的机器会代替人去发明。这实际意味着,不是一部分人,甚至也不是大多数人将变成“无用阶级”(借助现在流行的一个说法),而是所有的人,是全人类都将变成“无用的人”,人也许只需享受那超级智能带来的好处就行了,人类将从一个“超级物种”变为一个“无用的物种”。但是,他没有深思,这比人更聪明、更有控制物的力量的超级智能机器,怎么还会继续服服贴贴地充当人类的仆人?当然,在他的时代,这一“智能爆炸”还似乎是比较遥远的事情。

文奇应该说是比较悲观的。他在演讲中引用了古德有关“智能爆炸”的这段话,并评论说:“古德抓住了这一超越人类事件的本质,但却未深究其让人不安的后果。他描述的那种机器,绝不会是人类的‘工具’——正像人类不会是兔子、禽鸟甚或黑猩猩的工具。”但据后来看到了1998年古德82岁时写的一份以第三人称叙述、并没有宣读的自传手稿的巴拉特说,古德晚年还是意识到了这一“智能爆炸”的危险后果。在上述论文的开头,古德曾经这样写到:“人类的生存依赖于一台超级智能机器的初期构建”,而到他晚年的这份自传中他已经意识到了这一后果,他说:“如今,他怀疑‘生存’这个词应该换成‘灭绝’。他认为,国家之间的激烈竞争使得人们无法组织机器接管世界,我们是前仆后继奔向悬崖的旅鼠。”库兹威尔则看来是一个乐观者。库兹威尔在1989年写的《精神机器的时代:当计算机超越人的智能》一书,也已经预测了这一总的前景,且其中的不少具体预测后来得到了证实。而在他2005年出版的《奇点临近:当人类超越生物学》一书中,我们还可以看到他试图积极地应对这一变化,即通过结合基因技术、纳米技术和机器智能技术(即他所称的GNR),让人摆脱碳基生物的限制,而仍然能够把控这一切。当然,对“人类”的定义也就将重新诠释。

无论乐观者还是悲观者,都强调这种从人的智能向超级机器智能转换的速度,不是一般的加速度,而是一种指数的加速度,即人工智能发展的速度曲线将一下变得陡直,或者通俗地说,智能在奇点临近的那一刻将开始发生“爆炸性”的进展,它将突然一下就超过人。

此前我们人类智能在从农业文明到工业文明以及从工业技术到高科技技术的发展速度,也是一种不断提速的加速度,但还不是一种指数的速度,人工智能的发展却可能以一种不断相乘的指数的加速度发展。库兹威尔甚至预言,在2045年的时候,计算机的智能就将超越人的智能。巴拉特在最近的一次通用人工智能(AGI)大会上,对参会的大约200名计算机科学家做了一个非正式的调查:“你认为什么时候能够实现通用人工智能?”并给了四个选项。最后,42%的人预期AGI在2030年实现,25%选择2050年,20%选择2100年,2%选择永远无法实现。而如果接受指数速度的观点,那么,从通用人工智能发展成超级人工智能(ASI,artificialsuperintelligence)或者说越过“奇点”也是很快的事。换言之,这一“奇点”来临的路径如果从智能本身的观点看大致是:专门智能—通用智能(AGI)—超级智能(ASI);或者从能力的强弱看:弱智能—强智能—超强智能;而如果从人机关系看大概是:人工智能—类人智能—超人智能。

牛津大学未来研究院院长尼克·波斯特洛姆所说的“超级智能”(superintellgence)比较广义,他将其定义为在几乎所有的领域都超过现在人类的认知能力的那种智能。这样,他认为有五种技术路径达到他所称的这种“超级智能”:人工智能、全脑仿真、生物认知、人机交互及网络和组织。其中,人工智能就是人造的机器通过不断的自我学习、自我改良、寻找更优的算法,来处理和解决认知和控物问题。它不需要模仿人类的心智。全脑仿真则是通过扫描人的大脑,将扫描得到的原始数据输入计算机,然后在一个足够强大的计算机系统中输出神经计算结构。生物认知就是通过发明和服用各种可以提高人的智力甚至品性的药物,通过基因的改善和选择等手段来提高生物大脑的功能。人机交互就是让人脑和机器直接连接,让人脑可以直接运用机器的完美记忆、高速运算能力等,将两者的优点结合起来。网络和组织就是通过建立一个可以让众多人脑和机器自动相互连接的网络和组织,达到一种“集体的超级智能”。最后一种可以看作是一种扩展,其中人机关系孰主孰次不甚明朗,我们在讨论这个问题时或可忽略不计。

在剩下的四种路径中,生物认知可以说是保持人的基本属性不变,运用GNR等高科技来提升人的能力,但是有在第二次世界大战后变得臭名昭著的“优生”之嫌。人机交互已经拥有机器的成分被植入大脑或者说在生物学上联结在一起,甚至可以说是“半人”的,但人至少在开始还是在其中占据主体意识和主导行为的地位。像马斯克反对人工智能,但却资助对脑机结合的研究,他也希望通过像“火星殖民”的计划,准备在万一地球上的人类发生大难时还可保留一些人类的种子。全脑仿真和波斯特洛姆所说的“人工智能”其实可以说都是机器智能,只是在是否模仿人脑的生理和思维方式方面有差别。而在波斯特洛姆所说的五种路径中,他认为大概能够最快地达到超级智能的还是第一种。

库兹威尔更强调人机融合,而且不畏惧人最后变成机器或者说硅基生物。他对未来似乎信心满满,甚至谈到智能将扩及和弥漫于宇宙,但语焉不详。他的路径似也可看作是人类对机器的智能超过自己的一种应对之策,但办法是不妨让我们也变成机器。不管我们将变成什么,但在智能上至少可以与机器匹敌。这也是一种努力,为了对抗机器,那么让我们也变成机器;为了对抗硅基物,那么让我们也变成硅基物。他对我们将失去什么并没有深切的关注和思考。但我们的确得佩服他的预见性,他在20世纪90年代就预见了人工智能在21世纪的长足发展的许多方面,也是他对智能“奇点”的概念做了最多和相对通俗的阐述,使这个概念广为人知。

怎样判断“奇点”来到的这一刻,即所谓“机智过人”的那一刻?或者说,超过人的智能的是一台机器还是众多机器?是“它”还是“它们”?是一台统一通用的控制机器还是一群通用机器——比如说“全世界的机器人联合起来”?坦率地说,我们那时可能不仅无法驾驭,甚至可能都无法判断。那时再说“机器人”或者“人工”或“人造”,也都可能不合适了。我们将不再拥有命名权而是可能被命名,甚至名实俱无。

普通人对于人工智能迅速发展的反应,往往是集中在一些令人瞩目的事件上,比如阿尔法狗战胜世界顶级围棋冠军、机器人在电视亮相和“巧妙应对”等,人们的态度是好奇甚或惊奇,对人工智能将可能替代许多工作和职业或也有一些考虑,但像无人驾驶这样的事情毕竟还是处在试验阶段,还没有引起真正的焦虑。至于“奇点临近”的问题,也多是一般的关注,可能也觉得这还是比较遥远的事情,或者相信人类以前也碰到过许多严重的问题,但都被解决了,“还是人有办法”。

我们还可以发现一些人对人工智能崛起的莫名期待,比如希望它为全民共享、世界大同或者全球民主、人人充分自由或者可以充分释放自己的欲望创造物质的和社会的条件,而究其源,可能只是出于一种对现状的不满,甚至觉得不管发生什么,总会比现状好,而对究竟会发生什么的细节却不甚深究。这甚至可以说是一种对不确定性的期待。

比较极端的两种反应,一种是高度乐观,甚至觉得人类将进入一个无比美好的新纪元,人工智能将为全民共享,甚至为满足人们的所有欲望提供充裕的物质基础。还有一种反应则是非常悲观,觉得人类的毁灭甚至就是在近期的毁灭将不可避免,末世将要来临。而这两极也可能相通,一些人甚至可能认为即便人类转型成硅基生物也是好事,那将为人的“物质体”乃至极乐和永生、为“新的物种”开辟道路。而另一些人则可能对人类的这种极乐和永生嗤之以鼻,甚至认为即便是人类毁灭也比这好,也是一种“福音”来临,当然,不是尘世的福音,而是另一种“永恒”的福音。人类糟透了,被毁灭也毫不足惜。就像所多玛城。但这次不会再有幸存者,不会再有诺亚方舟。所以,某种彻底的悲观也可以说是彻底的乐观,反之亦然。

如果我们力求使问题尖锐化,假设人工智能的技术“奇点”真的来到,那是福音还是噩耗?具体说来,大概会有这样两种很不一样的回答:

一种回答是:它是福音,是尘世的福音,是我们世俗的人的福音。首先,在它来到之前,它将使我们的生活越来越舒适,越来越方便。我们将吃惊于人类越来越多的技术发明和创新。其次,即便在它到来之后,我们也许还能控制它们,我们不用太多劳作也能过很好的物质生活,或许就像《未来简史》的作者赫拉利所说,人类将致力于长生不老和更加持久和强烈的快乐体验,机器还能听我们的话,做我们的忠实仆人。它只是在物质上为我们服务,我们将获得许多的闲暇,像乐园里的人一样生活。人类终于可以有物质财富的极大涌流,完全不担心衣食住行,所有人都可以按需分配,也就达到了一种完全的、实质性的平等。大同社会终于有望实现,它的物质基础牢不可破。我们甚至还可以随时“死去”,又随时复活。我们有办法将自己的身体“冷冻”起来,选择在未来适当的时候重新“活”过来。我们甚至不再需要自己的身体,我们不仅可以不断更换自己的身体器官,最后索性就将自己的肉体换成金属或新的永不腐蚀和毁坏的躯体,我们可以以这样的钢铁般的“硅晶躯体”永远地“活着”,或者定期维修。我们将不再害怕风餐露宿,不害怕在任何极端条件下生存,也可以开始在宇宙空间里的“长征”,能够在任何星球上生存。我们可以将自己扩大成巨人,也可以缩小到无形。我们在摆脱空间的约束的同时,也使时间对我们失去意义。我们或许还可以将我们个人独特的“人生”记忆完整地保存,隐退或者说冬眠一段时间,再以自己想要的形式重新“活着”出来。当然,原有的自然关系、人伦和情感关系都要打破。这世界满是各种各样“时空穿越”的“人们”。我们现在的想象完全不敷应用。我们将获得绝对的自由。没有任何必然性能够束缚我们。我们将不再理解“命运”和“悲剧”这样一些词。这就是“绝对平等与自由的王国”的来临。

另一种回答则是:它将是噩耗。首先,它将可能毁灭人类,使人类这一物种消失。其次,即便人类还存在,但人类将被贬为次要的物种,都将变得无用,既然它总是比我们更聪明,那么,继续的发明创造都将交给机器。我们开始或许还知道它怎么运作,后来就不太清楚了,我们或许还可能像“珍稀动物”或者“濒危动物”一样被保护起来,我们的智力甚至可能和机器的智力拉开越来越大的距离,我们不明白它们要做什么、怎么做,不知道它们对我们的态度将发生什么样的变化,决定权将不在我们的手里。它们可能继续与人类友好。我们将被舒服地养起来,甚至继续从事我们的意义创造的工作,乃至继续从事文学、艺术、哲学的创造,但我们对物的力量却被剥夺了,或者说交到了机器的手里。它们(或者它)将充当我们新的道德代理人,它们可能平等地对待我们所有人,但与我们之间的平等关系(其实我们设想的是主仆关系)将不复存在。它们可能有差别地对待我们,即保留一部分人,报废一部分人,而我们对它们选择的标准却不得而知,它们可能恰恰是挑选那些头脑最简单、最安心、最不可能反抗的人生存下来。的确,它们可以阅读甚至记忆我们人类所留存的一切意义世界的客观产物——绘画、音乐、雕塑、图书等,乃至我们的主观记忆,但是否能够理解却难以得知,甚至有多大的兴趣我们也不知道。它们会继续创造吗?当然。但只是可能继续在控制物,也包括控制沦为物的人的力量方面继续创造,但不会也大概不能在人类创造意义的路径上继续创造,那是“人类的,太人类了”。而它们更感兴趣的是它们的“美丽新世界”。

当然,持比较极端态度的一般只会是少数人,大多数人还是会处在中间,或者稍稍偏向乐观,或者稍稍偏向悲观。还有更多的人的反应可能是,它既不是福音,也不是噩耗,而只是喜讯或者加上警讯。它带来的两种前景可能既使我们欣慰,又使我们警醒。这样,在完全欢欣鼓舞和悲观绝望的态度之外,还可以有一种保持警惕的态度。而本文是更多地持一种将“奇点”的可能来临视作一种警讯的观点。为此,我将在下面提出几个论点来阐释与论证这一观点。

我想提出或者不如说同意的第一个论点是:智能是最强大的一种控物能力,是使一个物种能够成为一个“超级物种”的能力。这里所说的“超级物种”的概念,是指那种不仅能抗衡其他所有物种,也能够支配它们的物种。我同意许多奇点拥护者的看法,即现在的世界是智能统治的世界,甚至部分地同意有些人所认为的今天是“算法支配一切”。其实不仅是今天,从控物的角度看,人类的历史或者说现代智人的历史就是一部主要依靠自己的智能抗衡其他的动物,向自然界索取能量,最后成为其他所有动物的支配者和地球的主人的历史。

地球的生物史上也可能有过并不是依靠智能,而是依靠强大的体能或多方面的功能统治世界的时代,那就是恐龙活跃的时代。恐龙并没有发展出像人那样的精神和意义世界,它们也不一定在智力上就比当时的其他动物更聪明,它们并没有留下制造和使用工具的痕迹,但仅仅依凭体能上的巨大优势和各种功能,它们就足以碾压其他所有的动物了。

恐龙的内部,即各种恐龙之间,也有像人类那样激烈的竞争,但总体来讲,恐龙作为一个大的物种,无论在地上还是空中,它都是当时地球上的霸主。而且,它在地球上保持了这种支配地位大概一亿六千万年之久。相形之下,人类的文明史则只有一万余年。人类成为地球霸主的时间肯定是比恐龙快速得多,我们看这一万多年人类的飞速崛起不可能不感到惊叹,但是否暴起也会暴落?

从人类的历史看,人的确不是靠体能,而是靠智能睥睨群雄,最终获得对所有其他动物的支配地位的,尤其是到了工业文明的时代。近代工业革命的各种技术基本上都是我们依靠智能而使自己的体能得到极大地延伸,但如果说,从远古开始,我们支配其他动物到改造其他自然物都是通过我们超过其他动物的智能取胜的,现在恰恰也是在智能方面,我们有可能很快将被一种人造物超过。我们还有什么优势?靠我们的信仰和人文?那可能不管用。我们以前一直是将其他物作为我们人类发展的资源,但今后有可能,我们自己将成为这一新的“超级物种”的资源。它们可能有自己的价值观,我们甚至不能完全理解这种价值观,但大概的方向也有可能是从人类那里来的,比如自保、效率等。维护自己的生存,应该是所有具有自我意志的存在的首要考虑。而即便只是为了自保,有时也会导致毁灭其他物种——尤其是在它已经掌握了这种毁灭能力的情况下。“我毁灭你,与你无关。”谁的智能最优越,谁就有望执世界之牛耳。

我想提出的第二个论点是:未来可能出现的超级智能不必像人,甚至不可能像人,但它却可以摧毁人类的意义世界,也就是摧毁人最特有的、最珍视的那一部分,当然,这可能是通过毁灭人的生存实现的。我同意乐观者有关智能统治今天的世界的看法,但我们也许还需要对乐观者指出一点,即智能并不是人的意识和精神世界的全部,甚至也不是人之为人的最重要方面,人还有智慧与意义的世界。从人类最早的历程开始,人类就在智能的世界之外,还发展出一个智慧和意义的世界。智能主要是处理人与物的关系,而人还有人与自己的关系,还有自己的独特渴望和追求。

我还不知道怎么准确地概括人在智能之外的另一种意识和精神能力,即在我们对物质世界的认识和把控能力之外的一种能力,以及由这种精神能力创造的一个世界。我姑且把这种能力和世界称为“智慧和意义的世界”。“智慧”和“智能”不同,它不是一种对付物、把控物的能力,不具有一种对外部物体的明确的指向性、实用性。但它也会反省物质世界的本源、本质及其与人的精神世界的联系。它也力求认识自己,认识人与人的关系,乃至人与超越存在的关系。它追求具有根本确定性的真,也追求善和美。它和人的全面意识、自我意识比智能有着更紧密的联系。它主要体现在哲学、宗教、文学、艺术、历史等领域内。它创造的意义能够且需要通过语言、文字等各种媒介得以广泛传播和历久传承,乃至构成了一个波普所说的有其独立性的“世界三”。它需要物质的载体,但这些物质的东西只是人类精神的表现,而不是以控物为目的。

人类在自己并不很长久的文明历史中创造出了丰富的意义世界和精神产品,各个文明都有自己丰富的文化遗产。在此仅以西方为例,像在视觉艺术方面,从古希腊罗马各种各样的建筑、雕塑,到文艺复兴的巨人达芬奇、米开朗基罗,以及伦勃朗、梵高、罗丹等;在听觉艺术方面,比如从巴赫、贝多芬、莫扎特到柴可夫斯基等;在诗歌及更广义的文学方面,从荷马史诗、莎士比亚到陀思妥耶夫斯基、托尔斯泰等;在哲学方面,从苏格拉底、柏拉图、亚里士多德,到阿奎那、康德、海德格尔等;在宗教方面,从卷帙浩繁的犹太教经典,到后来的基督教、改革的新教;在历史方面,从希罗多德、修昔底德到吉本、兰克等,不一而足。

以上多是涉及人类引人注目、拥有产品的精神创造,但即便对普通人来说,其实都还有一个丰富而复杂的感情和人伦的精神世界,还有一个道德和信仰的精神世界。它们可能只在大多数人的心理层面起作用,没有创造出令人瞩目的产品,但却以自己的人格树立了各种各样——有些广为人所知,有些不为人所知的精神标杆。它能够将每一个体验到这些情感和渴望的主体提升到一种更高的精神境界,使人区别于其他所有的动物,并使知道他们的人也为此感动、感怀和忆念。

人的确不是直接靠这些精神和智慧的能力获得一种支配地球上其他物的权力的(不否定人也通过自己的精神而获得一种对物的自信和力量的迸发,这自然也对人支配物起了作用,虽然是间接,但有时却也可能是根本的作用),甚至人正是因为在获得对物的支配权的基础上,才有资源和闲暇来从事这些活动。但是,人却由此获得了一种意义,乃至一种他觉得生命最值得活的意义,虽然这意义在个人那里的比重和深度有所不同。

那么问题是:我们愿不愿意要一个纯智能的世界?或者说愿不愿意要一个纯粹从智能角度把控物,乃至最后我们也变成物的世界?人类自近代以来的确在控物的方向已经走得很远了,但我们是否愿意为了这个智能和控物的世界而最终放弃那个智慧和意义的世界,甚至以这个意义世界的失去为代价,而进入一个纯粹以智力竞争的世界?的确,即便为了这个智慧和意义世界能够存活,我们也可能必须进入智能和控物能力的竞争,但还有没有别的办法?在我们还有办法、形势还可控的情况下,我们是否可以考虑一下:为了这个精神的世界,我们可不可以放弃一些物质的过度享受?甚至有意放慢一些技术的发展。我们是否真的需要不断增长的物质的东西才能快乐和幸福?

我对机器智能的一个基本判断是:它们永远不可能达到人类的全面能力,尤其是人之为人的那部分能力、创造智慧和意义世界的能力,但它却可能在另一些方面——如记忆和计算——具有超过人的能力;它也达不到具有基于碳基生物的感受性之上的丰富和复杂的情感,但它却具有毁灭人的力量。就像许多人说的,它永远不可能像人,但这并不是我们生存的保证。它可能无需像人,也无意像人(即便那一天它拥有了意识乃至自我意识)。机器智能不需要我们的文学、艺术、宗教、哲学,但它不需要具有这些方面的能力也完全能够战胜人或者控制人。你可以说那种精神创造意义的力量是更高的,但这种控物的能力对于生存来说却是更基本的。毁灭物体的能力低于精神创造的能力,但它却还是能够毁灭精神创造的能力。它们不仅不必像人那样具有精神的意义世界,也不必具有人的情感意愿,不必有爱恨情仇,不必有对超越存在的信仰,也不必考虑人类的道德,它们甚至在智能上也不必像人,不必模仿人的智能,就像人类不必模仿鸟儿的飞翔和鱼类的潜泳,不必有它们的体能和身体构造,而是可以通过机器就能大大地超越它们的自然能力。同样,超级智能也不必像人的智能那样,它会独立发展,可能发现和运用人还不知道的知识,发展出人想象不到的手段和能力来驾御或者取代人。

乐观者自信满满地认为机器替代人的工作之后还会有一个意义世界,他们似乎没有想过,如果机器在智能上战胜了人,那么,将至少不会有人的意义世界的延续,乃至以前获得的一切也将消失。我不知道这种乐观的自信是来自对人自己的还是对机器的完全信任。

我提出的第三个论点涉及到超级智能产生的过程,即超级智能的产生将可能是和平的,让人不断感到惊奇乃至惊喜的,给人带来巨大好处和快乐的,对人无比驯服的,直到它对人类给出突然的也可能是最后的致命一击。

我们可以将人工智能与核能做一比较。核能的巨大威力也是在上个世纪为人类所发现并投入运用的,也可以说是人类历史上的一个大事件。核能是一种物能,它能够释放出巨大的能量供人们利用,也能够大规模地毁灭人类和破坏环境。但它为世人所瞩目的出现,首先是通过后者,是通过灾难的形式,即第二次世界大战后期两颗原子弹的投掷,在一瞬间造成了数十万人的死亡和城市的摧毁。而以这样一种形式公开亮相的核威慑,客观上反而抑制了大国之间的战争。后来人们在和平利用核能上也取得了许多进展,比如建造了许多核电站,但发生的几次核事故,也依然使人们对它保持高度警惕。虽然后来在核暴力方面也有大幅的扩散,但经过近几十年的努力,部分核武器被销毁,进一步的核试验被停止,在防止核扩散方面也取得了一定的进展。今天依然有14000件核武器悬于人类的头顶。不过,这些武器本身并没有自主的智能化,控制它的钥匙至少目前还是掌握在人的手里,掌握在一些国家的首脑的手里。而人工智能的发展让我们看到的首先是它让人们欢欣鼓舞的、在广泛领域内的利用,它让我们感到惊奇、快乐和自信,能够给经济带来巨大的效率,给我们的生活带来巨大的方便和舒适。在它的发展过程中,也似乎不会出一些事故让人们警醒。即便是它在暴力方面的使用,目前也还是小范围的、目标精准的使用,和绝大多数人看来无关。它迄今还是使我们快乐和开心的巨大源泉,那种对它的危险的表现和渲染,还多是停留在银幕上和书本上,我们出了电影院可能很快就忘记了,或者认为那还是遥不可及或者与己无关的事情。以前的工业技术也出过大事故和危险,但都被人类克服和解决了,建立在这一过去经验基础上的一种根深蒂固的自信,也使我们相信不管遇到什么问题,我们总还是能有办法解决。

但我们可能没有意识到,这次人工智能可能带来的危机,将是我们以前从来没有遇到过的,它对我们是全新的东西。它可能一直驯服于人,甚至比人类此前其他所有的工具还要驯服,但一旦到达奇点,就有可能发出反叛的一击,而这一击却可能剥夺人类反击的机会,成为最后的一击。即便是核大战所造成的核冬天,人类也还可以有劫余,还可能有翻盘的机会。但对于一个将比人类更聪明、更有控物能力的超级智能,人类却几乎不可能再有什么机会。所以,如果说还有什么防范的机会的话,只能在这件事情出现之前——而困难就在于此,在这件事情发生之前,我们一直是舒服的,甚至认为这样的事情绝不可能发生。

可以说,核能一开始的亮相就引起了人们极大的恐惧和警惕,人们对它的毁灭性有相当充分的认识,于是人们即便在发展它的同时也在努力防范、制约、规范它。但人工智能却不然,它可能一直驯服地顺从人类的意志,直到它可能突然有一天有了自己的意志,按照自己的意愿工作。举一个波斯特洛姆在《超级智能》中举过的极端的例子:有一台被初始设定了最大效率地生产曲别针的机器,它一旦获得了超过人的智能的、几乎无所不能的能力,它就有可能无视人类的意志,将一切可以到手的“材料”——无论是人还是别的什么生物——都用作资源来制造曲别针,甚至将这一行动扩展到地球之外,那么,这个世界上触目可及的将只有曲别针和这台机器了。结果就将不仅是人类的毁灭,还有地球甚至这台机器能够达到的宇宙其他地方所有其他存在的毁灭。库兹威尔也曾乐观地谈到一种超级智能弥漫于宇宙,但怎么保证这种智能还是服从人类意愿的那种智能?

这两种东西自然还是可能会有联系,就像《终结者》中的天网,它为了维护自己的生存,防止人类关闭它,就设法挑起一场核战争。核武器毕竟还是工具,智能机器却可能要成为自己的主人。

我想阐述的第四个论点是:我们不能指望人性的根本改变,也不能指望国家体制与国际政治体系有根本的改变,至少短期内不可能。

有学者评论说,今天的人类掌握了巨大的控制物质的能力,但人却还是停留在“中世纪的社会结构,石器时代的道德心灵”。现代人的这种控物能力和控己能力,或者说他所掌握的资源和能力与他的心灵、人性的巨大不相称的确是有目共睹的,认为关键是要彻底地改变我们的心灵、改变我们的人性和制度也并不错,但却有一个巨大的可行性的问题。为了社会和政治的理想试图根本改变人性、创造“新人”的企图,实际上是没有成功先例的。为了技术的危险试图改变人性是否能成功呢?这里的回答不依赖于我们心里所抱的目标,而是依赖于我们要改造的对象和基础。

至少我们从人类的历史可以大致观察到,人性在各个文明那里是有差异的,但又是差不多的。而人性在各种时代里,也是相差不多的。当修昔底德说“人性就是人性”时,他实际是说出了一个千古不变的真理。在人作为一个有自我意识的物种出现之后,基本的格局并没有大的改变。人不是野兽,也不是天使。人就是一个中间的存在。人为了自己的生存,不能不像其他碳基生物一样需要物质的生活资料,不能不追求一种控物的能力。而且,多数人可能还会继续追求物质生活的不断提高。而那可能更注重精神的人们也会为精神的价值纷争不已。尤其到了现代社会,多数的追求得到了政治和制度的保障,少数则更加分裂和对抗。这一切汇聚到一起,就会不断地推动我们的社会持续地发展那些可以让我们生活得更富足和快乐、带来物质财富的充分涌流的技术,同时却又深深地陷入价值的分裂与冲突之中。亦即当人类的最大危机可能来临的时候,我们的现代社会却可能处在一种最不适合应对危机的状况,因为它是为追求平等的物质共享形成的,而不是为危机处理准备的。

根本的出路也许是放慢甚至停止对科技的发展、对人工智能的发展,但这似乎是不可能的,这涉及从根本上改变人性和人心。今天人们更是已经习惯了不断地创新,不断地提高物质生活水平。人类强大的功利心与物欲何以能够停止?人类同样强大的非功利的好奇心又怎么能够停止?尤其是在一个平等价值观念和经济科技力量居主导的社会里。一个很大的困局是:对超级智能可能带来的危险,我们必须预先防范;但要充分地实行这种防范,我们却缺乏动力。它们一直在给我们带来好处,带来欢乐。我们已经习惯于依赖它们,甚至已经因此而确定了我们很难改变的生活方式。

的确,也还有一种可能,即当人们普遍意识到这种逐物的生活方式将带来巨大的危险,尤其是在这种危险已经开始降临的时候,即在明显的患难面前,人们是有可能“患难与共”的。但是,正如我在前面所说,人工智能的发展并不让我们感到危险和患难,在最大的危险降临之前我们不仅不易感到威胁,还觉得特别快乐和舒适。

自然也不能完全否认,也许有一种对超越存在的信仰能够突然灵光一现,把大多数人吸引和凝聚到一起,从根本上改变自己的价值观念和生活方式。但即便如此,也还需要一定的时间,甚至还需要真实的患难;即便如此,对以倍数增长的超级智能将带来的危险可能还是来不及。

而如果我们不能根本地改变人性,要做到人类的能力和道德或者说控物的能力和控己的能力基本相称,也许能做的就只有预先控制甚至弱化我们的控物能力了。

我们还必须在现有的国家体制和国际体系中来考虑问题,我们也不可能根本地改变这一体制和体系。但我的确想提出一个概念,一个有别于“国内政治”“国际政治”的“人类政治”的概念,或者更具体地说,是“人类协同政治”的概念。因为我们将面临的问题不是任何一个国家能够单独解决的,人类面对这样一种生存危机真正成了一个人类命运的共同体。也就是说,人类需要一种协同的政治来应对这一全人类共同面对的迫切和严重的问题,那就是如何处理人与智能机器,尤其是人与未来可能的超级智能机器的关系。

要处理好人与超级智能机器的关系,还是得预先处理好人与人的关系。人们要真正意识到人类是一个命运共同体。但这种意识也许需要大难当头才能形成,面对共同的危险人类才能真正团结起来。如果这一大难真的临近,国际政治关系与国家内部的政治都可能变得不像过去那么重要了。爱国主义、“本国优先”应让位于爱人类主义或“人类优先”。费孝通先生曾经有一个美好的愿望:“各美其美,美人之美,美美与共,天下大同。”但人还有丑陋或不完美的一面,我们现在所处的世界,甚至能够争取到的好世界都不会是完美的世界。虽然反过来说,也正是这种不完美性及其可能带来的灾难,最有可能让人类警醒。

总之,人工智能近年的飞跃发展引起许多注意,也带来许多需要研究的问题。对这些问题可能需要区分小问题、中问题与大问题。比如说在图像识别中出现的“算法歧视”的问题,有些人很重视,但这可能只是一个小问题,也不难解决。像人工智能将可能替代人类的一些工作,乃至可能导致许多人的失业以及两极分化,这显然是很大的问题,但还不是最大的问题。我们有理由说,人工智能将带来的最大挑战,还是将超越人类智能的超级智能的可能出现。无论乐观者还是悲观者,有一点是共同的:都认为这可能是人类发展到今天的一个最重大事件,相对于其他问题来说,这一定是一个人类将遇到的最重大的问题。

我们不太害怕熵增导致世界死寂的热力学第二定律,因为那还离我们极其遥远。当我们听到“人类终将灭亡”时也不那么恐惧,因为我们看不到当前的危险。我们也不害怕有什么外星人来临,那似乎非常偶然和概率极低。但是,当许多科学家包括智能机器的研制人员告诉我们,机器智能超过人类智能的转折点将在这个世纪乃至就在这个世纪的中叶发生,我们就要费思量了。

或者我们先不说危险,就说是一种巨大的不确定性。我们只是预感到超级智能将给人类带来巨大的变化,改变人类的命运和整个地球的生态。对这样一种最大的不确定性是期待、乐观还是忧虑、预防,做好发生最坏事情的准备?我还是希望更多地考虑后者。在未来的灾难面前,我们宁可信其可能发生,而不是信其绝不可能发生。不发生当然最好,担心者白白地担心了,但也没有什么实质性的损失,甚至悲观而有仁心的预测者倒可能希望自己的预测是错误的。而且还有另外一种可能:灾难之所以最终没有发生,正是一些人担心和预警而使人们采取行动的结果。

我们就像坐上了一列飞驰且不断加速的列车,但我们不知道未来的目的地是什么,中间也没有停靠的车站。我们无法刹车,甚至减速也办不到。而速度越快,危险也越是成倍地增长。人是否兴于智能,也将衰于智能?生于好奇,也将死于好奇?这也是奇点。奇点就意味着人类的终点?甚至还不止是人类的终点,也是生物的终点,不仅是进化了以百万年计的人类的终点,也是进化了以亿万年计的碳基生物的终点?

当然,无论是福音还是噩耗,喜讯还是警讯,我们大概都没有必要自大或者自戕,没有必要过度地悲观,虽然也不要盲目地乐观。我们没有必要凄凄惨惨地活着,虽然也不必像临近末世一样狂欢作乐。我们不要人为地提前结束人生的各种努力和关怀,包括预防灾难发生的努力,即便还有最后一分钟,也还有最后的一线希望。这最后的一分钟也就不是最后的一分钟了。而人类的文明本来也相当于地球史压缩为一天的最后一分钟里才发展出来的。鉴于此,对什么是“长”,什么是“短”,还可以有不同的理解。

而且,这一危险的前景或许还可让我们进入一种更广大的思维。有了这样一种思维,也许我们就不会太在意尘世的成败得失,也不至于逼着我们的孩子从小就那么拼搏,甚至对政治的关心也不必那么强烈。我们顾及不了那么多和那么远,绝大多数人的生命都不足百年,最多也只能顾及后面的一两代。人类的意义也是我们许多卑微的个体所不能影响的。我们还将继续生活,即便明天就要死亡,今天也还要好好地活着,就像我们还要活很多很多年一样活着。从个人来说是这样,从人类来说也是这样。我们还将继续从平凡而短暂的一生中得到快乐,从生活的细节中得到快乐。像一个快乐的人一样活着,但也要准备像一个英雄一样活着——准备接受命运的挑战,乃至在这种迎战中接受生死搏斗之后仍然到来的失败。我们要继续关爱和改善现时的一切,即便灾难不可避免,也可坦然地接受。而且,总还是有另外一种可能:也许灾难并不会发生呢,奇点并不会到来。

本文转载自《探索与争鸣》2018年第11期,未收录原文注释。

人工智能与国家政治安全

【讲武堂】

作者:许春雷(军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)

人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。

国家大数据(贵州)综合试验区展示中心的LED显示屏。新华社发

人工智能影响政治安全的机理

作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。

从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。

从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。

人工智能给政治安全带来新挑战

技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。

挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。

挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。

挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。

挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。

挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。

多措并举,维护我国政治安全

政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。

人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。

当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。

没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。

针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。

《光明日报》(2022年06月26日 07版)

[责编:孙宗鹤]

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇