张成岗:人工智能赋能中国式现代化 发展机遇及风险挑战
人类文明演进中的“现代化”议题持续的基于创新的发展是近代才出现的一种导致经济发展不均衡分布的历史现象。14世纪开始至麦哲伦环球航行结束的地理大发现对欧洲影响极为深刻,使得封闭于西方一隅的欧洲走向世界,极大地开阔了视野、丰富了认识,尤其是对世界多样性的认识。地理大发现增加了各种文明相互摩擦、碰撞、借鉴、交流和融合的机会,开启了一直持续至今的全球化进程,对世界范围的现代化影响巨大。长期以来,由于西方发达国家的科技迅速发展,国家之间经济、贸易、社会、产业、人员之间联系越来越密切,人们之间交往更加频繁,国家之间、区域之间一体化趋势日益明显。
随着近代资本主义大工业的形成以及资本在全球市场的不断扩张,人类社会进入一个崭新时代,人类科技水平不断提高,社会秩序、文明形态和生活面貌发生巨大改变,现代化发展的意义空前凸显。人类文明进步建立在摆脱传统、冲破偏见基础之上,通过一系列改革在政治、经济、文化、社会、生态等各个领域取得重要成就。世界各国现代化道路复杂多样,既相对独立又相互关联。正如习近平总书记指出,现代化不是单选题。历史条件的多样性,决定了各国选择发展道路的多样性。现代化具体形式与各个国家具体国情、制度禀赋和文化传统相结合,呈现出不同特点。
在学理意义上,中国式现代化正在以其伟大实践实现对传统与现代、中国与西方、全球化与地方性二分思维及其叙事模式的超越。中国正在打破西方对现代化标准垄断,探索出一条不同于西方的社会主义现代化新路,创造属于自己的发展经验,为现代化理论作出重要贡献,为其他国家制定增长和发展计划提供启示借鉴,有助于人类文明多元发展与持续进步。中国式现代化道路着眼于世界现代化发展历史进程,积极探索建立新型现代化发展道路和人类文明新形态,能够在更高层次引领和推动全球治理体系和治理能力现代化。
“第四次工业革命”正在开启人类历史新阶段新一轮科学技术革命是中国乃至世界的最大现实,也是哲学社会科学研究者需要关注的重大议题。新工业革命正在深刻改变人类生产和生活方式。信息技术是新科技革命的龙头,正在向各个领域深度渗透,深刻改变着人类生产和生活方式。基于持续的技术创新和颠覆,以数字化、网络化、机器自组织为标志的“第四次工业革命”正在开启人类历史新阶段。
进入21世纪以来,大数据和人工智能蓬勃发展成为新工业革命的显著标志,并将重塑人类生存和生活的现实空间。第四次工业革命自2013年提出以来,迅速从发展理念转变为产业现实,并深入到社会生活的各个方面。第四次工业革命并不满足于“智能工厂”,而已经向着第四次科技革命迈进,预计将会在新一代信息技术、生物技术、新能源技术、新材料技术、智能制造技术等领域取得突破性进展。新一轮的科技革命将和以往每次科技革命一样,与全球政治、经济、文化、社会、环境进行新一轮的相互建构,并在根本上变革现代人的核心观念、认知方式、行动原则。
新工业革命不仅是一场技术与产业革命,对全球价值链结构、全球产业竞争格局产生深刻影响,更是一场社会、文化、价值与思维等领域的全景式整体性变革,将提供社会转型新动能,为社会发展带来新机遇。顺应形势把握住人工智能带来的重大历史机遇,可以带动国家整体竞争力的整体跃升,为处于转型期的中国经济社会发展提供强大动能。作为一项引领未来的战略性技术,推动和发展人工智能已经成为国际社会的共识,然而人工智能提供社会发展动力,赋能和助力现代化发展的同时,也对经济、社会、就业、伦理、安全诸领域提出新挑战。人工智能时代机遇与挑战同在,应当加强人工智能技术发展研判和预测,增强风险意识,更好应对人工智能技术可能导致的失控风险、伦理挑战、就业影响,促进科技治理能力现代化。
人工智能赋能中国式现代化新征程科学技术是一种在历史上起推动作用的革命力量。科技创新是提高社会生产力、提升国际竞争力、增强综合国力、保障国家安全的战略支撑。人类从农耕文明到今天智能时代,均以科技工具出现重大变革为时代标志。当前,区块链、人工智能、大数据、物联网等新兴技术的创新发展和社会应用突飞猛进,正在给现代化的内涵、体系、方式带来创造性变革。科技进步提供了现代化的基本框架及结构,引领现代化新趋向。人工智能已经成为新一轮国际竞争的焦点和经济发展新引擎,也将为现代化建设带来新机遇。
首先,科技是现代化的基本构成。科技创新是中国式现代化的重要支撑。科技是国之利器,是“国家赖之以强,企业赖之以赢,人民生活赖之以好”的核心要素。现代性诞生于主客两大观念领域的分离,实现在实践中人对自然的科学化认识、技术化改造。现代化是奠基于科技化之上的社会整体现代性呈现,一个现代化国家的基本构成就是科学技术。
其次,科技是现代化的关键动力。伴随着人工智能产业关键技术实现突破,以及新兴技术场景应用建设的加快,科技赋能成为高质量发展的显著标志,科技创新成为引领现代化建设的重要动力。一方面,人工智能是新兴科技重大革新的结果;另一方面,作为革新的基础,人工智能发展又在世界各地更大程度、更大范围推进了现代化发展。现代化在各个社会阶层之间、国家之间、人与非人存在之间,主要是以科技为载体展开。现代性观念本身,也是从人对科技后果反思中获得的。科技的自主性与反身性,推动着现代化进程,以及对现代性的超越。
最后,科技创新深度推进和引领社会发展变革。近年来,我国坚定实施创新驱动发展战略,以科技创新为核心带动全面创新,以体制机制改革激发创新活力,加快建设创新型国家,为全面建设社会主义现代化国家提供强有力战略支撑。在新科技革命背景下,机器人与人工智能已经成为下一个产业新风口和产业转型升级新机遇。科技变革了社会物质生产方式,是调整社会中各种关系的基础与动力。每一次社会结构的变革,都起于科技发展的需求与结果,也都创造出下一次科技变革的社会基础。科技革命提供了发展方向,未来人类社会是深度科技化的,而科技发展的方向标注了人类发展的进程,原有学科的创新以及新学科的建立,都提供了一窥未来社会形态的途径。
走向“好的人工智能社会(GoodAISociety)”发展科学技术是近代以来中国建设现代民族国家努力的重要组成部分,大力发展人工智能技术是当代中国创新型国家建设的重要组成部分,人工智能的快速发展要求我们对其风险及其挑战有全面和系统认知。
1.人工智能发展中的伦理风险
人工智能在带来生产方式、生活方式以及思维方式的重大变革的同时,也给当代社会带来了哲学和伦理挑战。新兴科技正在重塑人类的社会秩序和伦理规范。不道德地使用人工智能,是否会导致人工智能取代人的功能,甚至取代人的主体地位?实际上,新兴科技伦理规约所面临的现代性困境其实在于责任问题,如何确定人工智能技术活动及其后果的责任主体,是人工智能发展必须要考虑的问题。在新兴科技的伦理规约挑战中,技术设计的美好愿望与技术后果失控风险存在矛盾。技术与伦理的内在冲突呈显于技术发展的不同阶段。只有处理好新兴科技与人、社会及环境的关系,处理好高效率存在方式与真正的进步之间的关系问题,才能给人类和新兴科技的和谐发展提供一个良性环境,真正实现“善治”与“善智”的互构。
2.人工智能的就业冲击及社会风险
历史上,工业革命的一个重要影响就是机器对劳动力的补充或取代。在新技术革命浪潮中,新兴技术作为节约劳动力速度的工具超过了社会为劳动力开辟新用途的速度,人工智能正在挑战社会就业结构。伴随着人工智能技术的迅速发展和应用,人们抑或会进入一个技术性失业率不断上升的时代。随着人工智能发展,新型机器人正在成为社会生产和生活中极具竞争力的“新型脑力劳动者”,这种“新劳动者”的职业优势已经体现在诸多行业。随着人工智能广泛应用,第二产业中的“第三产业”将重构人群就业结构,对社会稳定性构成挑战。
3.人工智能时代整体图景缺失的挑战
人工智能时代是通过程序呈现的世界图像在时间序列上的布展;然而,技术的复杂性往往会掩盖人类重要活动的复杂性。时代的困境在于人类无法将复杂的世界组成可以理解的整体,在享受技术便利的同时,失去了对复杂技术系统的控制。人工智能时代正面临整体图景缺失的挑战。在网络时代,互联网可以在相当程度上提供有用网络知识,但互联网不能为我们提供对网络知识的“理解力”。互联网非但不能为我们提供理解能力,而且可能阻碍理解能力的发展。实际上,与其他技术类似,人工智能技术的复杂性存在掩盖人类重要活动复杂性的风险,社会技术网络并不能自我调整和校正,便捷化人工智能技术的使用对整体化的时代图景形成挑战,不能把人类发展放在不确定性根基之上。
4.构建“好的人工智能社会”的挑战
人民对美好生活的向往,就是中国式现代化的奋斗目标。进入新时期,要坚持以满足人民群众日益增长的物质文化需要,提升人民群众对美好生活的满意度作为全面推进现代化各项工作的目标旨归,推动人工智能融入社会转型发展的前瞻性创新、过程性监测、后果性评估,切实让人民群众的生活更和谐更美好。
构建“好的人工智能社会”是全人类面临的严峻挑战。人工智能在生产活动和社会活动中的作用日益增加,人工智能甚至在对人类的智慧能动者唯一地位提出挑战。“让生活更美好”的人类愿景正面临如何构建“好的人工智能社会”的紧迫挑战。人类无疑具有独特性,无论是什么样的机会和环境造就了今日的人类,这样的机会并没有出现在人类的近亲所生活的环境中,技术产物的终极制造者还是人类,但人类要预防技术发展可能的风险。
总体而言,AI的最高原则是安全可控;AI的愿景是促进人类更加平等地获得技术能力;AI的存在价值是让人成长,而不是取代人和超越人;AI的终极目标应当是为人类带来更多的自由和可能。面对AI的崛起及其全面融入社会生活,我们需要清醒客观的判断和扎实冷静的努力。人类不能让舒适的假象迷惑主体性意识,人不能放弃自己而沦落成为技术决定论的服从者。成为决定论的服从者会导致被奴役,被技术所奴役;人在获得“表面上的自由”的同时,不能放弃“真正的自由”。技术起源于机器,但是技术不等于机器;机器与人工智能仅仅代表技术的一部分,关注人本身始终应当成为科技发展的目标和动力!
(本文系贵阳市南明区社会治理现代化专题项目(04150201022)、国家社科基金重大项目(19ZDA040)阶段性成果))
(作者:张成岗 清华大学教授、社会治理与发展研究院院长)
编辑:李华山
2023年05月26日07:54:23
如何认识人工智能对未来经济社会的影响
原标题:如何认识人工智能对未来经济社会的影响人工智能作为一种新兴颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式,对经济发展、社会进步等方面产生重大而深远的影响。世界主要国家都高度重视人工智能发展,我国亦把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量。在此背景下,我们有必要更好认识和把握人工智能的发展进程,研究其未来趋势和走向。
人工智能不同于常规计算机技术依据既定程序执行计算或控制等任务,而是具有生物智能的自学习、自组织、自适应、自行动等特征。可以说,人工智能的实质是“赋予机器人类智能”。首先,人工智能是目标导向,而非指代特定技术。人工智能的目标是在某方面使机器具备相当于人类的智能,达到此目标即可称之为人工智能,具体技术路线则可能多种多样,多种技术类型和路线均被纳入人工智能范畴。例如,根据图灵测试方法,人类通过文字交流无法分辨智能机器与人类的区别,那么该机器就可以被认为拥有人类智能。其次,人工智能是对人类智能及生理构造的模拟。再次,人工智能发展涉及数学与统计学、软件、数据、硬件乃至外部环境等诸多因素。一方面,人工智能本身的发展,需要算法研究、训练数据集、人工智能芯片等横跨整个创新链的多个学科领域同步推进。另一方面,人工智能与经济的融合要求外部环境进行适应性变化,所涉的外部环境十分广泛,例如法律法规、伦理规范、基础设施、社会舆论等。随着人工智能进一步发展并与经济深度融合,其所涉外部环境范围还将进一步扩大,彼此互动和影响亦将日趋复杂。
总的来看,人工智能将波浪式发展。当前,人工智能正处于本轮发展浪潮的高峰。本轮人工智能浪潮的兴起,主要归功于数据、算力和算法的飞跃。一是移动互联网普及带来的大数据爆发,二是云计算技术应用带来的计算能力飞跃和计算成本持续下降,三是机器学习在互联网领域的应用推广。但人工智能技术成熟和大规模商业化应用可能仍将经历波折。人工智能的发展史表明,每一轮人工智能发展浪潮都遭遇了技术瓶颈制约,导致商业化应用难以落地,最终重新陷入低潮。本轮人工智能浪潮的技术上限和商业化潜力都大大高于以往,部分专用人工智能可能获得长足进步,但许多业内专家认为目前的人工智能从机理上还不存在向通用人工智能转化的可能性,人工智能大规模商业化应用仍将是一个长期而曲折的过程。人工智能的发展尚处于早期阶段,在可预见的未来仍将主要起到辅助人类工作而非替代人类的作用,同时,严重依赖数据输入和计算能力的人工智能距离真正的人类智能还有很大的差距。
作为继互联网后新一代“通用目的技术”,人工智能的影响可能遍及整个经济社会,创造出众多新兴业态。国内外普遍认为,人工智能将对未来经济发展产生重要影响。
一方面,人工智能将是未来经济增长的关键推动力。人工智能技术的应用将提升生产率,进而促进经济增长。许多商业研究机构对人工智能对经济的影响进行了预测,主要预测指标包括GDP增长率、市场规模、劳动生产率、行业增长率等。多数主要商业研究机构认为,总体上看,世界各国都将受益于人工智能,实现经济大幅增长。未来十年(至2030年),人工智能将助推全球生产总值增长12%左右。同时,人工智能将催生数个千亿美元甚至万亿美元规模的产业。人工智能对全球经济的推动和牵引,可能呈现出三种形态和方式。其一,它创造了一种新的虚拟劳动力,能够解决需要适应性和敏捷性的复杂任务,即“智能自动化”;其二,人工智能可以对现有劳动力和实物资产进行有力的补充和提升,提升员工能力,提高资本效率;其三,人工智能的普及将推动多行业的相关创新,提高全要素生产率,开辟崭新的经济增长空间。
另一方面,人工智能替代劳动的速度、广度和深度将前所未有。许多经济学家认为,人工智能使机器开始具备人类大脑的功能,将以全新的方式替代人类劳动,冲击许多从前受技术进步影响较小的职业,其替代劳动的速度、广度和深度将大大超越从前的技术进步。但他们同时指出,技术应用存在社会、法律、经济等多方面障碍,进展较为缓慢,技术对劳动的替代难以很快实现;劳动者可以转换技术禀赋;新技术的需求还将创造新的工作岗位。
当前,在人工智能对经济的影响这个领域,相关研究已经取得了一些成果,然而目前仍处于研究的早期探索阶段,还未形成成熟的理论和实证分析框架。不过,学界的一些基本共识已经达成:短期来看,人工智能发展将对我国经济产生显著促进作用;长期来看,人工智能的发展路径和速度难以预测。因此,我们需对人工智能加速发展可能导致的世界经济发展模式变化保持关注。
(作者单位:国务院发展研究中心创新发展研究部)
(责编:赵超、吕骞)分享让更多人看到
人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
《光明日报》(2023年04月10日 15版)
[责编:曾震宇]人工智能安全:挑战与机遇
【环球科技】
人工智能技术和应用飞速发展,推动经济社会创新发展的同时,也在重塑人类安全的未来。作为2018世界人工智能大会的重要组成部分,题为“人工智能安全:挑战与机遇”的安全高端对话9月18日在上海国际会议中心举办。此次对话活动由上海赛博网络安全产业创新研究院、中国信息通信研究院安全研究所联合承办,上海社会科学院互联网研究中心等协办。
对话围绕伦理问题、国家安全、网络安全三大主题展开,研判人工智能时代的安全挑战,探索人工智能安全发展的创新之道,促进人工智能产业的健康发展,确保人工智能发展造福人类未来。
本版邀请参与对话的两位嘉宾撰文,为读者深度解读人工智能与人类自身发展的现实与未来。
一、人工智能技术迅猛发展
军事历来是推动技术变革的主要力量之一,特别是在一些战略性领域,新技术与军事变革之间的互动,不仅推动了技术的发展,也影响了军事变革。算法上的突破、数据数量和质量的不断提升以及计算能力的增长为人工智能在军事领域的应用提供了无限的想象空间。
从现有的技术条件来看,人工智能至少可以在机器人、战场环境的分析和目标识别、后勤组织计划、情报分析、信息管理、信息行动等方面在一定程度上提升或改变原有对军事的认知。
人工智能的发展可以减少军人的伤亡程度、增强指挥决策、控制战争的杀伤范围方面改变未来的战争形态。
第一,当越来越多的无人驾驶飞机、坦克、汽车,以及自主决策武器开始走向战场,军人直接暴露在战场杀伤环境将会减少,军人的伤亡率较传统的战争也会下降。这会使得跟传统军人形象迥异,一群戴着眼镜,像在网吧中玩着网络游戏的新的职业军人和军事单元出现在战斗序列中。
第二,人工智能在辅助战场决策可以发挥重要作用,包括制定军事计划、后勤组织保障、战场环境实时信息获取、分析、目标的图像识别等方面可以大幅度提高战场的指挥决策能力。
第三,人工智能时代战争将更多是特种战争,而非全方位的战争。人工智能在网络战、信息战,以及类似的“斩首行动”“定点清除”等特种作战领域将会发挥重要的作用。这从很大程度上而言这也会改变战场的形态,人工智能领域的特种作战将会先与大规模冲突的爆发,改变人们传统上认为,战争就是工业化时代的大规模飞机、坦克、军舰等武器之间直接对抗的印象。
鉴于人工智能在军事领域的重要作用,各国的军队和政府都高度重视从国防角度来看待人工智能,越来越多的国家开始发展和使用人工智能武器,制定人工智能国防领域的发展战略。
2016年2月,时任美国情报总监詹姆斯·克莱伯在参议院武装力量委员会的听证会上认为,人工智能系统的欺骗性和破坏性难以预测和理解,将会对国家安全和关键信息基础设施带来巨大风险。特朗普政府开始加大对人工智能国家战略的制定和资源的投入,美国国防部门的国防创新咨询委员会和国防科学委员会不遗余力地推动美国军方向人工智能转型,并且成立了国防部联合人工智能中心;近期,美国国防高级研究计划局(DARPA)作为美军重要的技术创新部门宣布对人工智能的投资增加20亿美元,用以布局下一代人工智能。
俄罗斯也高度重视人工智能在国防领域的发展。俄罗斯国防力量积极的开发人工智能武器,包括超级坦克、无人蜂群、无人导航水下航行器等,根据媒体报道,俄罗斯已经开始在叙利亚战场中使用基于人工智能的武器系统。在美俄之外,包括中国、英国、澳大利亚、韩国、印度等越来越多的国家开始重视人工智能在军事领域的发展和应用。
二、安全领域挑战不容小觑
人工智能拥有巨大潜能,但事情往往具有两面性,为了获取战略竞争优势,各国人工智能在国防领域的竞争,也带来了安全方面的风险——包括为了获取竞争优势而忽视人工智能的伦理问题、人工智能技术扩散,以及过度强调人工智能的国家安全属性对正常的技术发展和商业所带来的威胁挑战。
首先,致命性自主武器的伦理问题。致命性系统是一种直接或间接地对人类造成伤害或死亡的系统。现有系统如装备了武器的无人机,就在某种程度上将自动化与致命性结合起来,但是这一系统需要人类的参与。完全自主的致命性自主武器系统还需要能够识别和选择目标,确定拟对目标施加的武力级别,并在特定范围的时间和空间内对目标实施规定的武力。半自主、全自主系统包括杀伤人员地雷、反舰雷达、各种精确制导导弹、鱼雷、巡航导弹、反卫星武器、空中和海上无人机、无人机群以及网络蠕虫。从不含情报的地雷到精确制导导弹以及依据地形的巡航导弹,这些系统中的情报数量差异巨大。
国际社会存在着很大的反对发展致命性自主武器的声音。如此众多的自主武器带来的问题是机器是否有权力去自主决定杀伤目标,以及由于算法黑箱或者自主武器失控而导致的误杀和误伤成为致命性自主武器发展必须要面临的伦理问题。虽然战争和伤亡是需要极力去避免的,但是由机器来决定伤亡则更加难以接受。不仅如此,人工智能的应用会在一定程度上降低战争的门槛,这会鼓励减少自我约束,采取进攻性的行动来达到相应的目的,但同时也会对国际安全形成新的不稳定因素。
其次,作为人工智能发展核心的算法和数据都存在着潜在的安全问题,这会导致人工智能决策的风险。从编程的角度来看,任何的代码都是由人编写,因此无法确保程序完全安全、可靠、可控、可信。从数据角度来看,人工智能依赖大数据,同时数据的质量也会影响算法的判断。军事数据质量获取、加工、存储和使用等环节都存在着一定的数据质量和安全风险,从而增加了军事领域使用人工智能的安全风险。
再次,人工智能技术扩散给全球安全带来的威胁。伴随着人工智能武器的开发,国际社会面临的另一大难题就是反扩散问题,恐怖主义组织以及不负责任的国家获取人工智能武器,并威胁国际安全和平。人工智能从某种意义上而言,也是一种程序和软件,因此,它面临的扩散风险要远远大于常规武器。类似于美国国家安全局的网络武器库被黑客攻击,并且在暗网交易,最后被黑客开发为勒索病毒的案例,也有可能在人工智能武器领域重现。
最后,人工智能的军备竞赛会对技术逻辑和商业逻辑产生破坏。人工智能具有军民两用性质,其发展最初的目的是为了发展经济,增加社会福利。过度的强调军事用途会对人工智能的全球研发体系和产业链造成严重威胁。近期,美国政府对《外国投资审查法案》进行修订,其中重点就是要阻止其他国家对美国人工智能初创企业的并购。法国政府也采取了相应做法提高外国企业对法国人工智能技术、人才的并购门槛。再加上,出口管制和人才交流限制。人工智能技术尚未发展成熟,各种鸿沟已经在各国之间开始构筑,会严重影响正常的技术研发,并且破坏全球化的商业逻辑。
三、治理机制构建刻不容缓
人工智能在军事领域的发展和应用已经成为很多国家的国家战略,相应的治理工作应当在现有的国际安全架构开展。今年9月在日内瓦召开的联合国常规武器公约的讨论中,各方并未就制定禁止人工智能驱动的致命性完全自主武器的条约达成共识。全球约有共26个国家支持全面禁止人工智能武器,而绝大多数国家还在观望。在规则不确定和大国战略竞争的背景下,人工智能在军事领域发展面临的风险和威胁在不断增加。加强人工智能的国际治理工作,降低军备竞赛风险则是当务之急。
经过2014年和2015年的两次非正式会议后,在2016年12月16日关于特定常规武器公约的联合国会议上成立了致命性自主武器系统(LAWS)政府专家组(GGE)。该小组的任务是研究致命性自主武器领域的新兴技术,评估其对国际和平与安全的影响,并为其国际治理提出建议。
人工智能引发的安全问题是专家组的一大重要分歧,技术强国与弱国之间存在截然不同的观点。技术弱国认为应当完全禁止致命性自主武器的开发使用,技术大国则持相反意见,认为开发致命性自主武器可以降低人员损伤,有利于打击恐怖主义和维护国家安全,并且很多系统已经在战场上进入实战。
军事是推动技术进步的重要因素,互联网就是由美国军方所发明,人工智能的技术发展背后也有军事因素的强力推动。但是,人工智能的科技竞赛也非技术之福,特别是致命性自主武器的扩散会造成更为严重的后果。因此,从联合国层面制定相应的规范,并且促成大国之间在发展致命性自主武器上达成一定的军控条约是当务之急。
联合国政府专家组应制定致命性自主武器系统和人工智能军事应用的目标。其中,最重要的一个目标是制定相应的国际法,在国际法不明确的情况下,各国应克制在军事领域使用人工智能武器。联合国政府专家组也应考虑对国际法此前未曾预见的情况追加法律限制,并以道德或伦理为由尽量减少对人和平民的伤害。更进一步的目标包括管理以下情况的操作风险,包括降低使用武力门槛、意外导致不应有的伤害、造成意外的升级螺旋式增长以及产生军备竞赛和扩散。
当然,从联合国角度来达成一项谈判可能需要十年甚至更长的时间,鉴于越来越多的风险,大国之间应当及早就人工智能在军事领域应用可能带来的潜在风险开展对话,及早启动相应的军控进程。短期内促成技术强国在谋求战略优势和国际安全体系稳定之间的妥协。
各国政府在制定人工智能在军事领域的战略时,还应当高度重视人工智能的治理工作。比如,无论是半自主和全自主的武器系统的设计,应允许指挥官和作战人员在使用武力方面作出适当的人为判断。为保证这一要求的实现,需要严格的设计、对设计的测试和评估、操作验证和测试,解决系统错误和故障的安全工程以及避免人为错误的认知工程。
在决定是否使用人工智能武器时,应当制定明确的规范和流程,避免造成不可预测的后果。同时,还应当加强对人工智能武器的安全性,避免安全泄露,或者是随意转让相关技术。无论是无意或者有意地扩散都会增加军备竞赛的风险,威胁国际安全体系。
(作者:鲁传颖,系上海国际问题研究院副研究员)
“人工智能+教育”带来哪些机遇与挑战
当人们谈论人工智能以怎样的新形态出现在面前时,教育界却正在发生一轮新的变革。在新一轮变革推动下,人工智能、大数据、互联网等前沿科技正加速应用于教育领域。在信息时代,人工智能将为教育行业带来哪些机遇和挑战?这是人们普遍关心的问题。
[[319059]]
前不久,我国教育家顾明远先生表示,“人工智能+教育”正在引起关于教育的一场革命。他认为,要充分认识“人工智能+教育”的育人功能,是当前教育工作者遇到的重要挑战。联合国教科文组织于2019年8月发布了《北京共识——人工智能与教育》;据悉,这是联合国教科文组织首个为利用人工智能技术实现2030年教育议程提供指导和建议的重要文件。该文件提出,各国要引领实施适当的政策应对策略,通过人工智能与教育的系统融合,全面创新教育、教学和学习方式,并利用人工智能加快建设开放灵活的教育体系,确保全民享有公平、适合每个人且优质的终身学习机会,从而推动可持续发展目标和人类命运共同体的实现。
“人工智能+教育”主要是要改变传统的教学方式,要从教师的教转变到学生的学。教师要充分发挥学生的主体性,改变单向传授知识的方式。学生通过自我学习发现问题、提出问题,自己去探索,或者与同伴合作,互相探讨。教师可以利用人工智能、大数据、互联网等技术优势,帮助学生的个性化学习设计科学的、合适的学习方案。人工智能、大数据、互联网等,还可以作为教师的有力助手。总体来说,人工智能还是能给教育带来诸多机遇,能够提供个性化的学习,促进学习者各方面素养和能力的提升,加快全球课堂的普及,并减少教师的重复性工作等。人工智能可以帮助老师随时了解学生的学习情况,帮助他们解决困难,帮助教师批改作业,替代教师一些机械式的劳动,减轻教师的负担,使教师有更多的时间和学生接触沟通。
人工智能的本质是效率工具,取代低端的劳动,迫使人类智慧向高端劳动迁移。而教育的本质是用一个灵魂去点燃多个灵魂,是人类文明的传承和发展的重要环节。当知识可以越来越容易地被外部存储和调取,当很多低端的脑力劳动可以被人工智能取代,人类的智能必然需要被解放出来,去处理更多复杂智能才能处理的事。从这个角度去看,人工智能越发展,应试教育就会变得越不重要,素质教育就会变得越重要。当然在提供素质教育的过程中,我们依然可以利用人工智能来降低练习和反馈部分的成本并提升效率。智能技术变革教育具有个性化、情境化、数据驱动、新教育生态等基本特征,它可以根据每位学生的基础个性化推荐,真正精准找到学生弱项,提升学习的效率。
人工智能催生教育的多个变革,包括教育思维模式从一维到多维,知识体系从单一到跨界,教师能力从一元到多元,教育技术从单一到复合,教材呈现从纸质到数字等。在个性化教学方面,人工智能可以通过大数据技术,来收集和分析学生日常学习和完成作业过程中产生的数据,精确地告诉老师每个学生的知识点掌握情况,老师便可以针对每一位学生的学习情况来有针对性地布置作业,达到因材施教的效果。而在教学方式方面,人工智能可以为老师提供更为丰富的教学手段,全时互动、以学定教,老师上课时也不再是只有一本教科书,而是可以任意调取后台海量的优质学习资源。
当前,图像识别、语音识别、人机交互等人工智能应用技术在教育领域都有了应用。比如,通过图像识别技术,人工智能可以将教师从繁重的批改作业和阅卷工作中解放出来;语音识别和语义分析技术,可以辅助教师进行语言口试测评,也可以纠正、改进学生的语言发音;而人机交互技术,可以协助教师为学生在线答疑解惑。教师可以利用人工智能、大数据等技术优势,帮助学生的个性化学习设计科学的、合适的学习方案。除此之外,个性化学习、智能学习反馈、机器人远程支教等人工智能的教育应用也被看好。现在市场上人工智能在教育领域已经有一些比较成熟的应用;随着人工智能技术的发展,越来越多的人工智能工具被应用于教育领域,成为教师教学和学生学习的得力助手。
作为前沿科技,人工智能在给教育带来诸多有利因素的同时,也会存在相应的挑战。在人工智能渗透进入传统教育领域带来优势的同时,也会引发一些问题。例如人工智能的出现可能会导致学生被动接受已经安排好的知识,而丢失主动分析、思考的能力;也有人担心人工智能为教师做了太多,教师的教学水平可能会下降。因此,要充分认识人工智能的优势和它可能存在的问题,做到趋利避害,真正使人工智能发挥育人的作用。正如我国教育家周仪荣先生曾经所言:科技是一把双刃剑,在它给人们带来美好的同时也带来一系列的麻烦;因此要合理利用科技,发挥它有利的一面,限制它不利的一面。只有这样,才能发挥人工智能技术在教育领域的有利作用。
总而言之,人工智能与教育的系统融合将会更好地加速教育行业改革,促进教育行业发展。人工智能未来将极大地影响教育行业;“人工智能+教育”或许不会像电商零售那样容易,需要经历一个漫长的过程;但信息时代早已到来,而教育的未来已然可期。面对当前挑战与机遇并存、困难与希望同在的形势,只要坚定信心、不断创新,中国教育行业就一定能够持续健康稳定发展。
我国人工智能治理面临的机遇和挑战:基于科技公共治理视角
卢阳旭 何光喜
[摘 要]建立健全人工智能治理体系,是保障人工智能健康发展的必然要求。人工智能治理的核心议题是风险和收益的平衡,以及相关公共决策的知识合法性和参与合法性的协调。本文基于科技公共治理视角,分析了人工智能治理的两个面相,介绍了各国在人工智能治理方面的探索及面临的挑战。在梳理我国人工智能治理实践的基础上,从原则、制度建设和工具开发三个层面提出了改进我国人工智能治理体系建设的建议。
[关键词]人工智能;科技公共治理;风险;挑战
[中图分类号]D63 [文献标识码]A
一、人工智能治理问题的提出
人工智能是引领新一轮科技革命和产业变革的战略性技术,正在对全球经济社会发展产生重大而深远的影响,[1]是当前全球科技治理的焦点议题。形成一套能有效识别、促成社会意愿“最大公约数”的人工智能治理体系,有效支撑相关公共决策的制定和执行,是促进人工智能健康发展的重要保障。
(一)科技公共治理及其核心议题
作为一种特殊类型的公共治理,科技公共治理具备公共治理的一般特征:治理主体多元化、治理机制多样化。[2]同时,科技创新活动及其影响的不确定性高、知识门槛高,又使得科技公共治理有以下两个方面的核心议题。
1.科技收益与科技风险的权衡问题
科学技术的“双刃剑”效应使得人们对于科技发展一直有一种矛盾的态度,一方面担心发展太慢,让经济社会发展失速;另一方面又担心发展太快、失去控制,伤及人类。这一矛盾态度使得人们在对待科技发展特别是新兴技术的应用上,出现了“预防原则”(precautionaryprinciple)和“先占原则”(proactionaryprinciple)的持续争论。[3]“预防原则”主张,人们要更谨慎地对待科技发展蕴含的不确定性,以防其带来不可预料的危害。“先占原则”则认为科技创新自由至关重要,不应过分强调与科技发展相关的不确定性的负面影响,反倒是要在规制科技创新方面更加谨慎,以免失去科技发展带来的机会。简单说,前者更强调“安全的科学”,后者则更加强调“科学的安全”。[4]
2.“知识合法性”和“参与合法性”的张力问题
科技活动有很强的专业性,较之一般公众,科学家具有很强的知识优势,更有可能作出“知识上”的正确决策,科技相关决策应该主要听科学家的——这是很长时间以来,科学与政治、科学家与公众之间的默契。但是,随着科学的体制化和职业化,知识权力与各种经济和社会利益的深度纠缠,科学家的独立性和客观性不再毋庸置疑。同时,科技对社会的深度纠缠使得科技决策所需的科学知识之外的“社会知识”越来越多,而公民权利意识的增强则意味着公众会越来越不愿意只是被动地接受科学家们的决定。[5][6]换句话说,没有多主体参与的科技公共决策可能在知识上是不完备的,在程序上是“不合法的”。[7]
(二)人工智能治理的两个面相:“影响的治理”与“技术的治理”
1.影响的治理:人工智能的伦理、法律和社会影响
影响的治理是人工智能治理的核心面相,基本原则是以人为本,基本问题是风险和收益的权衡。20世纪90年代人类基因组计划设立专门的研究项目,关注与基因技术相关的伦理、法律和社会议题(Ethical,Legal,andSocialIssuesELSI)。这个框架同样适合于对人工智能影响的分析,目前人们对于人工智能影响的讨论基本上也是从这三个相互联系的层面来展开的。
人工智能伦理议题的核心,是人与人工智能系统的关系,表现在两个层面:一是人工智能持续发展给人类地位带来挑战,虽然目前人工智能还处于狭义人工智能阶段,但人们对通用人工智能和超级人工智能的预期加重了这方面的担忧。二是人工智能的误用和滥用给人与人、人与自然之间伦理关系带来挑战,比如隐私、歧视、尊严、安全、公平正义等。人工智能法律议题的核心,是何种法律规制能够帮助人类在人工智能发展过程中实现“趋利避害”。人工智能社会议题的内容相对宽泛,而且随着人工智能对工作和生活渗透广度和深度的增加,还会有各种新的议题出现。当前,人们关注的主要议题,包括就业、收入分配、深度造假、政治选举等等。[8][9]
需要指出的是,虽然人们对人工智能的潜在风险有很多担心,但总体判断还是好处要大于风险,而且人类社会有机会、有办法去争取实现收益最大化、风险最小化。比如,2018年12月欧盟委员会高级专家组发布的《可信赖的人工智能伦理准则(草案)》(DraftEthicsGuidelinesForTrustworthyAI)指出,总体而言人工智能所带来的收益要大于风险。同月,日本内阁府发布的《以人类为中心的人工智能社会原则(草案)》(SocialPrinciplesofHuman-centricAI(Draft))也认为人工智能技术是其推进“社会5.0(society5.0)”建设的关键,要尽可能有效、安全地利用它并避免其带来的负面影响。
2.技术的治理:人工智能系统的治理
技术的治理是人工治理的从属面相,基本目标是保障技术系统安全、可控。具体要求主要包括:一是强调人工智能系统要可解释、透明、长期安全并符合社会价值观,要提高算法的透明性、完善数据共享标准和规范。二是要在人工智能系统的可靠性检验和安全性确认等方面寻找新的方法,以保证人工智能系统处于不间断的人类监管之中。比如,2016年美国政府发布的《国家人工智能研发战略规划》提出,在初始设计阶段就要从技术、标准、审查层面保证人工智能系统可控、安全、符合社会伦理。
但人工智能技术治理面临两个方面的挑战:一是人工智能内生偏差和不可理解问题。人工智能算法高度依赖于大数据,而在很多场景下,数据质量(比如样本的代表性)是很成问题的;不可理解性既包括开发者无法确切理解人工智能系统自我学习过程和决策结果,也包括算法对于使用者和监管者而言的不可理解性。[10]二是算法透明化的安全顾虑和法律争议。国家和公司层面的激烈竞争,以及算法、数据及其分析方法通常掌握在少数国家、少数公司手中这一客观事实,使得它们很容易从现行法律框架中搬出私人财产、商业机密、国家安全等作为拒绝公开的理由。
二、各国人工智能治理的探索和挑战
(一)各国人工智能治理的探索
1.影响的识别:共识和差异
近年来,随着研究的深入和实践的增多,全球人工智能治理的一般性议题越来越集中,主要包括人类的尊严和自主性、隐私和数据安全、就业和社会不平等、人工智能系统的可信赖性及恶意使用等。与此同时,人工智能向各领域的快速渗透也让人工智能治理的具体性议题持续增多。据不完全统计,仅在各项能从公开渠道获得的人工智能提案中,涉及的议题就已超过50个。[11]随着人工智能对各领域渗透程度的进一步加深,未来还会有更多利益点和风险点被触及和识别。
需要指出的是,各国在议题上的共识并不代表在认知、态度和政策举措方面取得共识。以隐私保护为例,虽然各国都认同应该保护隐私,但在不同的制度和文化背景中,人们对于隐私的理解,以及隐私的重要性排序存在明显差异。比如,有研究者将不同社会和群体对待隐私保护的态度划分为三种类型:“隐私优先”(High-Privacyposition)、“隐私平衡”(Balance-Privacyposition)和“隐私限制”(Limited-Privacyposition)。[12]“隐私优先”论赋予隐私更高的价值排序,认为应该赋予个人更大的“数据控制权”,同时它对于隐私的界定也相对比较宽泛。与之相反,“隐私限制”论则认为,虽然应该保护隐私,但当它与其他社会价值(比如公共安全、言论自由等)不一致的时候,应该让位于后者。“隐私平衡”论介于二者之间,在强调隐私保护的同时,也认为不应该对隐私有过于宽泛的定义和过强的保护,在隐私保护方面则强调发挥个人自主、机构和行业自律的作用。事实上,上述分歧明显地体现在美国和欧盟个人数据和隐私保护的立法和监管思路上。相对来说,欧盟在个人数据和隐私保护上更接近于“隐私优先论”,2018年5月正式生效的《一般数据保护条例》(GeneralDataProtectionRegulation,GDPR)确立了“数据可携带权”“被遗忘权”等个人数据控制权,并要建立统一的执法机构。与之相反,美国在强调个人数据和隐私保护的同时,在个人数据控制权立法保护方面要更加谨慎,更接近于“隐私平衡论”甚至“隐私限制论”。对美国、英国和德国等国企业的实证研究也发现了各国对于隐私的认知差异:美国与英国企业的隐私官员一般从避免损害消费者预期的风险管理角度看待隐私保护,而德国、法国和西班牙三国企业主要从人权角度看待隐私。[13]
2.机制的探索:参与和协同
人工智能发展迅速、渗透性强、议题多样复杂。政府、科研机构、大学、企业和社会组织等都有各自的利益诉求和信息优势,多元参与、充分沟通有利于提高人们对人工智能收益和风险的共同认知,并承担共同责任。虽然人工智能治理是个新议题,但从欧美各国的实践来看,它们基本延续了在转基因、纳米、合成生物学、信息技术等新技术治理方面的理念和架构。以一系列法律为核心的正式制度为人工智能治理提供了基本的制度框架和互动规则,例如欧美国家广泛存在的对重大科技公共议题的议会听证制度。对话会、民意调查以及政策制定者和专家之间的社会网络等非正式治理活动也有利于信息的及时传递和各方利益的表达。比如,在奥巴马政府时期,白宫科技政策办公室就人工智能主题举办了一系列旨在广泛征求社会各界意见的研讨会,在此基础上相继发布了《为人工智能的未来作准备》(PreparingForTheFutureOfArtificialIntelligence)《美国国家人工智能研究和发展战略计划》(TheNationalArtificialIntelligenceResearchandDevelopmentStrategicPlan)和《人工智能,自动化与经济》(ArtificialIntelligence,Automation,andtheEconomy)三份报告,较为系统地阐述美国人工智能发展战略、伦理规范和治理机制。2018年以来,美国国会就个人数据和隐私保护相关议题连续举行了多场听证会,Facebook、谷歌、亚马逊等企业巨头均被邀出席。2018年5月,美国政府又在白宫举办人工智能峰会,邀请谷歌、亚马逊、英特尔等企业巨头,以及顶级学术机构的专家等上百位代表参加,重点讨论AI研发、人才培养、制约AI创新发展的体制和特定部门的AI应用等4个议题。2017年6月,英国上议院成立了人工智能专门委员会,负责研究人工智能发展所带来的经济、伦理和社会问题。2018年4月,该委员会发布了《英国人工智能:准备、意愿与能力》(AIintheUK:ready,willingandable)的报告。
当然,人工智能治理过程中多方参与和协同的方式、效果受到特定国家利益集团的结构和制度环境的深刻影响。人工智能的快速发展必然会冲击现有的利益格局,不同利益集团之间的博弈直接决定了各方在相关决策中的话语权和影响力。以隐私保护为例,数据收集者、数据聚合者(主要指各类数据交易平台)、数据使用者和数据监管者这四类利益主体之间的博弈过程会深刻影响一个地区、国家甚至全球的隐私保护政策。[14]同时,人工智能治理过程中利益博弈、政策制定和执行活动都嵌入特定的政策网络当中,会受到其他领域法律法规和政策执行体制的推动和掣肘。总之,欧美国家在推动人工智能公共治理方面的基本经验,不是简单地让知识合法性或参与合法性占据绝对的优势地位,而是把二者间的张力纳入特定的制度框架内,并通过各种具体的活动程序和技术小心翼翼地保持它们之间的微妙平衡。
3.工具的建立:规范和倡导
工具的多元化和适应性是实现有效治理的重要条件。近年来,国际组织、各国政府和立法机构、研究机构等各类主体积极探索建立多样化的人工智能治理工具。法律的约束力强,是人工智能治理可依赖的重要工具,但由于其刚性强,各国在以法律来规制人工智能方面还是相对比较谨慎,尽量平衡风险规制和促进人工智能创新发展的双重需要。总体而言,以美国和欧盟为代表的一些国家和地区在人工智能相关立法方面采取的基本策略,是差别化和场景化——对人工智能不同应用领域进行专门立法。目前,美国和欧洲等国家和地区在自动驾驶方面已有比较成熟的立法,很多国家(地区)也试图加强对深度造假、智能投顾和智能医疗等人工智能应用重点领域的立法规制。[15]
行业技术标准、从业人员行为规范等也是人工智能治理的重要工具。2017年,电气电子工程师协会(IEEE)发布《人工智能设计的伦理准则(第2版)》,对人工智能伦理事项进行了扩充,而且目前还在持续更新和迭代。国际电信联盟(ITU)、国际标准化组织和国际电工委员会第一联合技术委员会(ISO/IECJTC1)等机构也在紧锣密鼓地进行相关标准的研究和制定工作。同时,一些知名科学家、企业家发起国际性的治理倡议,试图在观念和规范层面凝聚全球共识。比如,2017年1月,由未来生命研究所(FutureLifeInstitute)发起,霍金、马斯克领衔推动全球联署的“阿西洛马人工智能23条原则”(AsilomarA.I.Principles)已有超过1000名人工智能/机器人研究人员以及超过2000名其他领域专家签署。该原则从科研目标、科研经费和文化、科学和政策的互动、系统安全可控和透明性,到负责任、隐私、自主性、利益共享、符合人类价值观和不颠覆人类社会秩序等方面提出了23条人工智能研发和应用原则,呼吁全世界严格遵守,共同保障人类未来的利益和安全,在业界引起了很大反响。2018年12月,一项旨在推动人工智能治理全球合作,促进人工智能可持续发展的《负责任地发展人工智能蒙特利尔宣言》(MontrealDeclarationforaResponsibleDevelopmentofArtificialIntelligence)也开始了全球签署。这些国际性的、跨领域的努力为全球人工智能治理合作提供了重要帮助。
(二)全球人工智能治理面临的主要挑战
1.收益和风险的有效识别与公正分配
人工智能是一项正在快速发展且具有重大深远影响的新技术,对它的治理面临着巨大的技术和经济社会影响的“双重不确定性”。如何确保收益和风险的平衡,实现收益的公正分配、风险的合理分担是全球人工智能治理面临的巨大挑战。以就业为例,虽然人们知道人工智能将推动更大范围、更具“劳动替代性”的自动化进程,并重塑全球产业链和就业结构,但替代的规模和方式,影响的大小和结构却众说纷纭、难有定论。再有,人工智能如何加速推动资本替代劳动,是否会加剧“资本回报率高于经济增长率”的趋势,[16]造成劳动参与率和劳动收入占国民收入的比例进一步下降,高端就业岗位和普通就业岗位间的收入差距进一步扩大,让人工智能带来的生产效率提高、社会财富增长等好处主要由少数大企业、大资本和高端技术人员和管理者获得?2018年2月,剑桥大学生存风险研究中心(CentrefortheStudyofExistentialRisk,CSER)等机构联合发布《人工智能的恶意使用:预测、预防和缓解》(TheMaliciousUseofArtificialIntelligence:Forecasting,Prevention,andMitigation),认为滥用人工智能不仅会放大旧风险,还会产生新风险,让数字空间、物理空间和政治领域的风险类型更加复杂。总之,不同国家、群体和个人在人工智能相关风险面前的脆弱性是存在结构性差异的,如何降低风险并更合理分配风险是全球人工治理面临的关键挑战。
2.知识合法性与参与合法性的动态平衡
人工智能具有很高的技术门槛,相比于用户、监管者等主体,技术专家拥有很强的知识优势。但人工智能技术具有极强的渗透能力,将来会出现在工作和生活的各种场景当中,与每个人的利益密切相关。在这种情况下,与人工智能相关的公共决策所需的不仅仅是客观的技术知识,公众的利益诉求和价值判断同样非常重要。探索各种能够促进政府、企业、科学共同体和公众四类主体共同参与、协商共治的方式,不仅能够增加复杂决策所需的技术知识和社会知识,更能增加人工智能治理的参与合法性。但必须指出的是,在现实的人工智能治理活动中,四类主体内部并非“铁板一块”,而是普遍存在着各种观念和利益的分化与差异:政府内部存在不同级别和不同部门间的观点或利益差异;科学界内部存在不同学科间、不同技术路线的差异,而且很多所谓的“科学之争”还混杂着复杂的利益纠葛;产业界内部存在不同产业、不同厂商间的利益差异;公众内部的观念、利益分化则更加普遍。总之,纵横交错的利益关系、知识和政治的深度交织都增加了人工智能治理知识合法性和参与合法性之间的张力和平衡难度。
3.全球人工智能产业竞争和治理合作的良性互动
加强人工智能治理的全球合作是国际社会的共识,但各国、各大企业积极争取掌握更大话语权也是全球人工智能治理的客观事实。2019年2月,美国总统特朗普签署《美国人工智能倡议》,提出要应对来自战略竞争者和外国对手的挑战,并确保美国在人工智能领域的领先地位。2018年3月,欧洲科学与新技术伦理组织(EuropeanGrouponEthicsinScienceandNewTechnologies,EGE)发布的《关于人工智能、机器人与“自主”系统的声明》(StatementonArtificialIntelligence,Roboticsand‘Autonomous’Systems)提出,欧盟要启动相关流程,为机器人技术和自主系统的设计、生产、使用和治理制定一个共同的、国际公认的伦理和法律框架。2018年4月,英国议会发布的《英国人工智能:准备、意愿与能力》(AIintheUK:ready,willingandable)更是提出,英国要利用法律、研究、金融服务和民间机构方面的优势,通过在人工智能伦理与准则制定方面的领先来引领人工智能的发展。
三、我国人工智能治理的探索和挑战
(一)我国加强人工智能治理的主要探索
1.高度重视人工智能发展风险研判和防范
2017年7月,国务院发布《新一代人工智能发展规划》,要求必须高度重视人工智能可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险。2018年10月,习近平总书记指出,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控;要加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。
2.积极推进法律法规和政策体系建设
近年来,我国通过分散式立法的方式,修订和出台相关法律法规,重点加强了对个人数据、电子商务、智能金融、自动驾驶等与人工智能发展紧密相关领域的修法和立法工作,努力完善促进人工智能健康发展所需的法律框架。比如,2018年8月十三届全国人大常委会审议通过《中华人民共和国电子商务法》,努力在允许算法推荐和大数据画像等新技术发展和消费者合法权益保护之间寻求平衡。中国人大网公布的《十三届全国人大常委会立法规划》显示,个人信息保护法、数据安全法均被列为第一类项目,即条件比较成熟、任期内拟提请审议。一些政府行业监管部门也陆续出台了一系列部门规章,积极适应本领域人工智能应用的监管需要。比如,中国人民银行等部门联合出台的《关于规范金融机构资产管理业务的指导意见》规定,金融机构应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,在促进算法透明和人工智能监管框架等方面做出重要尝试。
3.搭建人工智能治理多方参与平台
2017年11月,由科技部、发改委等15个部门共同构成的“新一代人工智能发展规划推进办公室”宣布成立,负责推进新一代人工智能发展规划和重大科技项目的组织实施。来自高校、科研院所和企业的27名专家组成的“新一代人工智能战略咨询委员会”也同期成立,负责为新一代人工智能发展规划和重大科技项目实施,以及国家人工智能发展的相关重大部署提供咨询。为进一步加强人工智能领域相关伦理、法律和社会问题研究和人工智能治理国际交流合作,2019年2月,新一代人工智能发展规划推进办公室决定成立“新一代人工智能治理专业委员会”。2019年4月,科技部发起“为了AI健康发展:新一代人工智能治理准则建议征集”活动,向政府部门、企业、高校、科研院所和各界人士公开征集建议。在人工智能标准化方面,2018年1月,国家标准化管理委员会宣布成立国家人工智能标准化总体组和专家咨询组,负责全面统筹规划和协调管理中国人工智能标准化工作。
(二)我国人工智能治理面临的主要挑战
1.从跟随者到领跑者的角色转换
长期以来,我国科技发展处于“跟跑”状态,科学研究和产业应用方面会遇到的伦理、法律和社会问题大部分都已由先发国家“蹚过”了,我们可以跟在后面学习借鉴国际经验,不走或少走弯路。当前,新一代人工智能对全世界来说都是一个新事物,在治理方面没有现成的经验。我国人工智能部分领域核心关键技术实现重大突破,市场应用深度和广度迅速增长,与之相关的伦理、法律和社会问题的研究和治理不可能再跟在后面学了——从“跟着学”到“带头做”是一个巨大的角色转变。
2.科技公共治理机制不健全
人工智能治理活动嵌入在特定的科技公共治理制度中,而后者是一个从理念到制度、程序再到具体技术的完整系统。虽然近年来我国在人工智能治理领域已经作出富有成效的探索,但我国科技公共治理体制机制方面的诸多不足还是会给人工智能治理带来诸多挑战,突出表现在以下几个方面:一是产业界、公众参与科技公共决策的依据、程序等仍然缺乏明确、详细的法律规定。二是以知识生产、共识达成和决策扩散等为目标的系列公共治理方法和工具开发不够。三是在开放创新和全球合作共治的大背景下,主动参与国际人工智能治理合作的理念、机制和专业人才准备不足。
四、结论和建议
探索形成一套有效的人工智能治理机制和平台、治理方法和工具,以实现治理结果的趋利避害、治理过程的科学民主,是保障人工智能持续健康发展的内在要求。鉴于全球人工智能治理现状以及我国的具体国情,本文提出以下建议:
一是原则层面,根据收益和风险结构进行分类、分级处理。一方面人工智能在不同领域中的应用所带来的收益和风险存在很大差异;另一方面在人工智能创新和产业化链条的不同阶段和环节,收益和风险的大小和结构也存在很大差异。没有必要,也很难用一个标准来简单地加总利害。从目前国际人工智能治理经验和我国治理实践来看,未来我国人工智能治理遵循的基本原则,是根据风险类型和大小,对不同场景下的人工智能系统开发和应用采用不同的监管模式和治理机制,努力实现创新和安全、知识合法性和参与合法性之间的动态平衡。
二是制度规范层面,人工智能公共治理法治化。首先应当在法律层面规范人工智能治理程序,将相关决策过程纳入法治轨道。其次要在科研经费投入、科研活动监管、公众参与方式和程度等方面,都明确相应的制度安排,在项目形成机制、各类利益相关方代表的产生方式和意见表达程序等内容作出可操作的程序设计。[17]
三是技术层面,开发多样化的人工智能治理技术工具箱。在充分借鉴国际人工智能治理方法和工具的基础上,围绕知识生产、共识形成和行动促进这三个人工智能治理的关键问题,开发适合我国制度环境和社会基础的系列工具。
[ 参 考 文 献 ]
[1]习近平,推动我国新一代人工智能健康发展,2018-10-31.
[2]俞可平.国家治理评估:中国与世界[M].北京:中央编译局出版社,2009:3-8.
[3]翟晓梅,邱仁宗.合成生物学的伦理和管治[N].科学时报,2010-7-19.
[4]卢阳旭,龚旭.科学资助中的控制权分配——以科学基金机构职能变迁为例[J].科学学研究,2019(3).
[5]诺沃特尼,斯科特,吉本斯.反思科学:不确定性时代的知识与公众[M].冷民,等,译.上海:上海交通大学出版社,2011.
[6]马森,魏因加.专业知识的民主化:探寻科学咨询的新模式[M].姜江等译.上海:上海交通大学出版社,2010.
[7]王奋宇,卢阳旭,何光喜.对我国科技公共治理问题的若干思考[J].中国软科学,2015(1).
[8]国家人工智能标准化总体组.人工智能伦理风险分析报告[R].2019.http://www.cesi.ac.cn/201904/5036.html.
[9]贾开,蒋余浩.人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择[J].中国行政管理,2017(10).
[10]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018(6).
[11]曾毅.构建新一代人工智能准则[N].光明日报,2019-1-24(16).
[12]Margulis,ST.PrivacyAsaSocialIssueAndBehavioralConcept[J].JournalofSocialIssues,2003.59(2):243-261.
[13]Bamberger,KA,Muligan,DK.2015,Privacyontheground:drivingcorporatebehaviorintheunitedstatesandEurope[M],MITPress.
[14]克雷格,卢德洛芙.大数据与隐私:利益博弈者、监管者和利益相关者[M].赵亮、武青译.2016.长春:东北大学出版社.
[15]汪庆华.人工智能的法律规制路径:一个框架性讨论[J].现代法学,2019(2).
[16]皮凯蒂.21世纪资本论[M].巴曙松,等,译.北京:中信出版社,2014.
[17]何哲.人工智能时代的政府适应与转型[J].行政管理改革,2016(8).
[作者简介]卢阳旭,中国科学技术发展战略研究院副研究员;何光喜,中国科学技术发展战略研究院研究员。人工智能给军事安全带来的机遇与挑战
1.2提升军事情报分析效率
随着信息技术的发展,人类正在迎来一个“数据爆炸”的时代。目前地球上两年所产生的数据比之前积累的所有数据都要多。瀚如烟海的数据给情报人员带来了极大的困难和挑战,仅凭增加人力不仅耗费大量钱财,问题也得不到根本解决。与此同时,伴随大数据技术和并行计算的发展,人工智能在情报领域日益展现出非凡能力。目前,美军已经敏锐地捕捉到了人工智能在军事情报领域的巨大应用潜力,成立了“算法战跨职能小组”。该小组的首要职能就是利用机器视觉、深度学习等人工智能技术在情报领域开展目标识别和数据分析,提取有效情报,将海量的数据转换为有价值的情报信息,为打击ISIS等恐怖组织提供有力的技术支撑。机器算法的快速、准确、无疲劳等特点使其在大数据分析领域大展身手,展现出远超人类的能力。因此,美国防部联合人工智能中心主任沙纳汉中将就直言不讳地表示,算法就是“世界上最优秀、训练最有素的数据分析师”。
1.3提升军事网络攻防能力
网络空间已经成为继陆、海、空、天之外的“第五维空间”,是国家利益拓展的新边疆、战略博弈的新领域、军事斗争的新战场。习近平主席在中央网络安全和信息化领导小组第一次会议上指出,“没有网络安全就没有国家安全”。网络攻防是军事安全领域中的重要一环,基于人工智能技术的自动漏洞挖掘可以显著提升军事系统的网络防御能力。目前,网络防御领域存在两大问题:一是网络技术人才短缺;二是当前的网络防御系统面对未知漏洞表现不佳。人工智能的新发展为提升网络防御水平提供了新途径,主要体现在网络系统漏洞自动化检测和自主监视系统等方面。以深度学习为代表的机器学习技术有望使得网络防御系统不仅能从以往的漏洞中学习,而且能在监视数据中不断提升对未知威胁的应对能力。有研究表明,人工智能可以从大量网络数据中筛选出可疑信息,以此增强网络防御能力。比如“蒸馏网络”公司(DistilNetworks)就利用机器学习算法来防御人类难以察觉的高级持续性威胁(APT)网络攻击。目前,美国亚利桑那州立大学的科学家已经研发出了一种能够识别“零日漏洞”的机器学习算法,并能够追踪其在黑客界的流动轨迹。麻省理工学院(MIT)“计算机科学和人工智能”实验室的研究人员也启动了PatternEx研究项目,意在构建一个机器学习系统,预期每天能检查36亿行日志文件,监测85%的网络攻击,并在投入使用时进行自动学习和采取防御措施。美国国防部高级研究计划局正计划将人工智能用于网络防御,重点发展的功能包括在投入使用之前自动检测软件代码漏洞以及通过机器学习探测网络活动中的异常情况等。
1.4为军事训练和培训提供新方式
人工智能为军事训练和培训也提供了新方式。在作战训练领域,人工智能技术与虚拟现实技术相结合能够极大提升模拟软件的逼真度和灵活性,为针对特定战场环境开展大规模仿真训练提供高效手段,真正实现“像训练一样战斗,像战斗一样训练”。首先,通过收集卫星图像、街景数据、甚至是无人机拍摄的三维图像,虚拟现实程序能够在人工智能的帮助下快速、准确地生成以全球任何一处场景为对象的综合训练环境(STE),帮助士兵进行更有针对性的预先演练,提升士兵执行特定任务的能力。其次,人工智能赋能军事训练模拟软件在不降低真实度的情况下快速生成训练环境、设计交战对手,摆脱了以往军事训练耗费大量人力物力布置训练场景的传统模式。再次,人工智能具备的自主性使得模拟军事训练不会以可预测模式进行,士兵必须使用各种设备和不同策略在复杂多样的环境中战斗,有利于提升士兵和指挥官在作战中的应变能力。最后,人工智能通过在模拟对战中与人类反复交手从而迭代学习,系统借助大量复盘模拟可以不断完善应对方法,为参谋人员提供参考借鉴。这一过程类似于与AlphaGo进行围棋对战。换言之,人工智能不仅可以扮演模拟军事训练中人类的强大对手,还可以在每次胜利时向人类传授一种针对这次战役或行动的新策略。除此之外,人工智能在军事训练的其他领域也有着广泛应用。目前,一个名为“神探夏洛克”(SHERLOCK)的智能辅导系统已经被用于美国空军的培训中。这个系统能够为美国空军技术人员提供如何操作电子系统对飞行器进行诊断的培训。同时,南加州大学的信息科学学院已经研制出了一个基于替身的训练程序,能够为派驻海外的军人提供跨文化交流训练。
1.5给军事理论和作战样式创新带来新的启发
诚如恩格斯所言:“一旦技术上的进步可以用于军事目的,他们便立刻几乎强制地,而且往往是违背指挥官的意志而引起作战方式上的改变甚至变革。”技术进步作用于军事领域必然引起作战方式的改变甚至变革,这是恩格斯100多年前就向人们揭示的军事技术发展规律,人工智能技术当然也不例外。总体来看,以人工智能技术为支撑的智能化武器装备较传统武器装备具有突防能力强、持续作战时间长、战术机动性好、训练周期短以及综合成本低等显著优势。智能化无人系统可采用小型化甚至微型化设计,使用复合材料和隐身技术,以隐蔽方式或集群方式接近目标,让敌人难以察觉或无法防范。无人武器系统还可以突破人类生理局限,装备的性能指标和运转时长只需考虑制造材料、各类机械电子设备的承受极限和动力能源的携带量,不但使得系统在机动、承压方面能力得到革命性提升,并且能够实现远距离侦察打击和在目标区域的长时间存在。同样重要的是,与传统武器系统操控训练周期一般长达数年不同,无人系统操控员仅需数月或一年左右的训练即可远程操控“捕食者”“死神”等无人武器参加实战,更多作战人员不必直接踏上战场,有望大大降低战死率和随之而来的社会舆论压力。基于人工智能技术军事化应用的上述特点,近年来美军提出了以算法较量为核心的算法战、无人武器系统蜂群式作战、具有高度自适应性的“马赛克战”等一系列新作战样式。可以预见的是,随着人工智能技术的进一步发展,智能化条件下的军事理论和作战样式创新不会停止。
总而言之,人工智能可以帮助军事力量更加精准高效地运转,同时降低人类面临的生命危险。人工智能在无人作战、情报搜集与处理、军事训练、网络攻防、智能化指挥控制决策等军事领域的广泛运用具有“改变游戏规则”的颠覆性潜力,有望重塑战争形态,改写战争规则,推动智能化战争的加速到来。中央军委科技委主任刘国治中将等专家认为,人工智能必将加速军事变革进程,对部队体制编制、作战样式、装备体系和战斗力生成模式等带来根本性变化,甚至会引发一场深刻的军事革命。
人工智能给军事安全带来的风险和挑战
人工智能作为一种科学技术,同样具备“双刃剑”属性。人工智能一方面为人类社会发展进步和维护军事安全提供了新的动力和机遇,另一方面也带来了一系列威胁与挑战。综而观之,人工智能给军事安全带来的威胁和挑战主要有以下几个方面。
2.1人工智能军事应用带来的非预期事故
人工智能的军事应用存在诸多不确定性,容易带来非预期事故的发生。这主要由以下两点原因所致:一是由于人工智能内部的脆弱性问题(internalvulnerbility)。当前,人工智能还停留在弱人工智能阶段,而弱人工智能系统的特点在于它们接受了非常专门的任务训练,例如下棋和识别图像。战争可以说是最复杂的人类活动之一,巨量且不规律的物体运动仿佛为战场环境蒙上了一层“迷雾”,难以看清和预测战争全貌。在这种情况下,系统的应用环境无时无刻都在发生变化,人工智能系统可能将难以适应。因此,当前弱人工智能存在的根本脆弱性(brittleness)很容易损害系统的可靠性。交战双方部署的人工智能系统交互产生复杂联系,这种复杂性远远超出一个或多个弱人工智能系统的分析能力,进一步加剧了系统的脆弱性,发生事故和出错的概率将大大增加。此外,人工智能算法目前还是一个“黑箱”,可解释性不足,人类很难预测它的最终结果,也容易带来很多非预期事故。二是外部的攻击利用问题(externalexploitation)。研究人员已证明,图像识别算法容易受到像素级“毒”数据的影响,从而导致分类问题。针对开源数据训练的算法尤其容易受到这一挑战,因为对手试图对训练数据进行“投毒”,而其他国家又可能将这些“中毒”数据用于军事领域的算法练。目前对抗性数据问题(adversarialdata)已经成为一个非常严峻的挑战。此外,黑客攻击还可能导致在安全网络上训练的算法被利用。当训练数据受到污染和“投毒”,就很可能产生与设计者意图不符的人工智能应用系统,导致算法偏见乃至更多非预期事故的发生。最后,人机协同也是一个很大的难题。无论是强化学习、深度学习,还是专家系统都不足以完全准确地反映人类的直觉、情感等认知能力。人工智能的军事运用是“人—机—环境”综合协同的过程,机器存在可解释性差、学习性弱、缺乏常识等短板,或将放大发生非预期事故乃至战争的风险。
2.2人工智能军备竞赛的风险
与核武器类似,由于人工智能可能对国家安全领域带来革命性影响,世界各国将会考虑制定非常规政策。目前,世界各国(尤其是中、美、俄等军事大国)都认识到人工智能是强化未来国防的关键技术,正在加大人工智能领域的研发力度,并竭力推进人工智能的军事应用,力图把握新一轮军事技术革命的主动权,全球人工智能军备竞赛态势初露端倪。具体而言,美国将人工智能视为第三次抵消战略的核心,建立“算法战跨职能小组”,筹划基于人工智能的算法战。2018年7月,美国防部设立专门的人工智能机构——联合人工智能中心(JAIC),大力推动军事人工智能应用。2019年2月12日,美国防部正式出台美军人工智能战略,并将联合人工智能中心作为推进该战略落地的核心机构。美国2021财年国防授权法案草案中也特别强调对人工智能、5G、高超声速等关键技术进行投资,建议对人工智能投资8.41亿美元,对“自主性”(autonomy)投资17亿美元。这些举措都体现出美国积极推动人工智能军事化、在人工智能领域谋求新式霸权的意图。俄罗斯在这一领域也不甘落后。2017年1月,普京要求建立“自主机器复合体”(AutonomousRoboticComplexs)为军队服务。中国政府则于2017年7月20日出台《新一代人工智能发展规划》,正式将发展人工智能上升到国家战略高度。军事领域也在通过“军民融合”战略加快“军事智能化发展”步伐,“促进人工智能技术军民双向转化,强化新一代人工智能技术对指挥决策、军事推演、国防装备等的有力支撑,推动各类人工智能技术快速嵌入国防创新领域”。
鉴于人工智能强大而泛在的技术本质以及军事领域对于强大技术的强烈需求,人工智能走向军事应用是难以阻挡的趋势,当前各国竞相推动人工智能军事化和发展人工智能武器便是其现实体现。大国间在人工智能领域的军备竞赛将会危及全球战略稳定,对国家安全带来严重威胁,埃隆·马斯克关于人工智能军备竞赛可能引发第三次世界大战的预言并非危言耸听。如同所有军备竞赛一样,人工智能领域的军备竞赛本质上都是无政府状态下安全困境的体现,如果缺乏信任和有效的军备控制措施,这将成为一场“危险的游戏”,直到一方把另一方拖垮或双方共同卷入战争,上演一场智能时代的“零和博弈”。
2.3扩展威胁军事安全的行为体范围和行为手段
传统上,威胁军事安全的主要行为体是主权国家的军队,但随着网络和人工智能技术的发展,这一行为体范围正在拓展。以网络攻击为例,根据攻防平衡理论,重大军事技术的出现将对攻防平衡产生重大影响,而有的军事技术天然偏向于进攻方。当前,人工智能技术的发展对提升网络攻击能力同样提供了极大机遇。可以预见,人工智能与深度学习的结合有望使得“高级持续威胁”系统成为现实。在这种设想下,网络攻击方能够利用APT系统24小时不间断地主动搜寻防御方的系统漏洞,“耐心”等待对方犯错的那一刻。随着人工智能逐步应用,将有越来越多的物理实体可以成为网络攻击的对象。例如,不法分子可经由网络侵入军用自动驾驶系统,通过篡改代码、植入病毒等方式使得军用无人车失去控制,最终车毁人亡。又比如通过入侵智能军用机器人,控制其攻击己方的人员或装备。同时,人工智能与网络技术结合可能进一步降低网络攻击的门槛。当智能化网络攻击系统研制成功,只要拥有足够多的资金便能有效提升自己的网络攻击能力,而不需要太高的技术要求。因此,未来恐怖分子利用人工智能进行网络攻击或攻击自主系统的算法、网络等,继而诱发军事系统产生故障(如军用无人车、无人机撞击己方人员),或者直接损坏军事物联网实体设备等,都会对军事安全产生很大威胁。
此外,人工智能的发展应用还将催生新的威胁军事安全的方式和手段。人工智能表现出诸多与以往技术不一样的特点,也自然会带来威胁军事安全的新手段,深度伪造(deepfakes)就是其中的典型代表,该技术为煽动敌对国家间的军事冲突提供了新途径。例如,A国雇佣代理黑客使用人工智能技术制作“深度伪造”视频或音频材料,虚构B国密谋针对C国采取先发制人打击,并将这段“深度伪造”材料故意向C国情报部门秘密透露,引发C国的战略误判,迫使其采取对抗手段。B国面对这种情况也将不得不采取措施予以应对,一场由A国借助人工智能技术策划的针对B、C两国的恶意情报欺诈就完成了。当前,“深度伪造”技术的发展速度远超相关的检测识别技术,“开发深度伪造技术的人要比检测它的人多100到1000倍”,这给各国安全部门抵御人工智能增强下的信息欺诈和舆论诱导制造了很多困难。此外,运用人工智能系统的军队也给自身带来了新的弱点,“算法投毒”、对抗性攻击、误导和诱骗机器算法目标等都给军事安全带来了全新挑战。
2.4人工智能产生的跨域安全风险
人工智能在核、网络、太空等领域的跨域军事应用也将给军事安全带来诸多风险。例如,人工智能运用于核武器系统将增加大国核战风险。一方面,人工智能应用于核武器系统可能会强化“先发制人”的核打击动机。核武器是大国战略威慑的基石,人工智能增强下的网络攻击将对核武器的可靠性构成新的威胁,在战时有可能极大削弱国家威慑力、破坏战略稳定。因此,尽管目前人工智能增强下的网络攻击能力的有效性并不确定,危机中仍将大大降低对手间的风险承受能力,增加双方“先发制人”的动机。信息对称是智能化条件下大国间进行良性竞争的基础和保障,但现实情况往往是,在竞争激烈的战略环境中,各国更倾向于以最坏设想来揣测他国意图并以此为假设进行斗争准备,尤其当面对人工智能赋能下的愈加强大的针对核武器系统的网络攻击能力,“先下手为强”确乎成为国家寻求自保的有效手段。另一方面,人工智能技术在核武器系统领域的应用还将压缩决策时间。人工智能增强下的网络攻击几乎发生在瞬间,一旦使核武器系统瘫痪,国家安全将失去重要屏障,给予决策者判断是否使用核武器的压力将激增。尤其在一个国家保持“基于预警发射”(lauch-on-warning)的情况下,核武器系统遭到人工智能增强下的网络攻击时几乎无法进行目标探测并且发出警报,更不可能在短时间内进行攻击溯源和判定责任归属,决策时间压缩和态势判断困难会使决策者承受巨大压力,极有可能造成战略误判,给世界带来灾难。
人工智能与网络的结合会极大提升国家行为体和非国家行为体的网络能力,同时也会催生出一系列新的问题。首先,人工智能技术的网络应用将提升国家行为体的网络攻击能力,可能会加剧网络领域的冲突。如前所述,基于人工智能的APT攻击可使得网络攻击变得更加便利,溯源问题也变得更加困难。与此同时,人工智能的网络应用可能会创造新的缺陷。目前人工智能的主要支撑技术是机器学习,而机器学习需要数据集来训练算法。一旦对方通过网络手段注入“毒数据”(如假数据),则会使得原先的人工智能系统非正常运行,可能带来灾难性后果。其次,由于人工智能算法的机器交互速度远超人类的反应速度,因此一旦将人工智能用于军事领域的网络作战,还有可能带来“闪战”风险,即人类还没来得及完全理解网络空间的战争就已经发生。此外,人工智能在太空领域的应用可能对全球战略稳定和军事安全带来破坏性影响。在人工智能的加持下,传统的反卫星手段将变得更加精准、更具破坏性、更难追溯,从而加大“先发制人”的动机,寻求先发优势。这容易破坏航天国家的军事安全和全球战略稳定,因为攻击卫星尤其是预警卫星往往被视为发动核打击的前兆。
结语
总体国家安全观强调,发展是安全的基础和目的,安全是发展的条件和保障,二者要同步推进,不可偏废。既要善于运用发展成果夯实国家安全的实力基础,又要善于塑造有利于经济社会发展的安全环境,以发展促安全、以安全保发展。因此,维护人工智能时代的军事安全并不代表放弃人工智能的发展,反而要大力推动其应用,使其成为维护军事安全的重要手段和支撑,并注重化解风险。如今,我国正处在由大向强发展的关键时期,人工智能有望成为驱动新一轮工业革命和军事革命的核心技术。因此,我们需要抢抓此次重大历史机遇,积极推动人工智能的研发和军事应用,推动军事智能化建设稳步发展,为建设世界一流军队增添科技支撑。
在当今时代,没有谁是一座孤岛,人工智能对于军事安全领域的影响是全球性的,因此推动人工智能领域的国际安全治理、构建人类命运共同体就显得尤为重要。由于人工智能的迅猛发展,目前对于智能武器尤其是致命性自主武器系统的相关法律法规还并不完善,各国在如何应对这些问题方面也没有明确的方法、举措和共识,但这些问题确关人类社会的未来前景和国际体系稳定。为了维护我国的军事安全以及整体的国家安全利益,应当推动人工智能技术治理尤其是安全领域的全球治理,在人工智能的军事应用边界(如是否应当将其用于核武器指挥系统)、致命性自主武器系统军备控制等领域开展共同磋商,在打击运用人工智能进行恐怖犯罪等领域进行合作,构建人工智能时代的安全共同体和人类命运共同体,维护国家军事安全和人类和平福祉。
免责声明:本文转自信息安全与通信保密杂志社,原作者文力浩,龙坤。文章内容系原作者个人观点,本公众号转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
2021年上半年世界前沿科技发展态势
2021年上半年世界前沿科技发展态势——信息领域
2021年上半年世界前沿科技发展态势——生物领域
2021年上半年世界前沿科技发展态势——能源领域
2021年上半年世界前沿科技发展态势——新材料领域
2021年上半年世界前沿科技发展态势——先进制造领域
2021年上半年世界前沿科技发展态势——航空领域
2021年上半年世界前沿科技发展态势——航天领域
2021年上半年世界前沿科技发展态势——海洋领域
转自丨信息安全与通信保密杂志社
作者丨文力浩,龙坤
编辑丨郑实
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er返回搜狐,查看更多