人工智能与国家政治安全
原标题:人工智能与国家政治安全人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。
人工智能影响政治安全的机理
作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。
从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。
从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。
人工智能给政治安全带来新挑战
技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。
挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。
挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。
挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。
挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。
挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。
多措并举,维护我国政治安全
政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。
人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。
当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。
没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。
针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。
(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)
(责编:杨虞波罗、初梓瑞)分享让更多人看到
面对人工智能冲击,欧美加强监管引导—新闻—科学网
面对人工智能冲击,欧美加强监管引导
自诞生之日起,ChatGPT产生的巨大冲击波已引发各国政府的高度关注。很多国家纷纷加大力度出台监管措施,以应对人工智能可能带来的风险和意外后果。
就连ChatGPT母公司OpenAI的首席执行官萨姆·奥尔特曼也在呼吁,应制定法律降低“日益强大的人工智能的风险”。今年5月,他在美国参议院司法委员会举行的听证会上表示,支持建立技术护栏,以尽量减少ChatGPT可能给人类带来的伤害。
近日,欧盟和美国相继提出并批准针对人工智能的法律法规,以对其进行全方位监管。
欧洲最先开始行动
欧盟以其在数据保护和数字服务市场方面的严格规则而闻名。早在两年前,欧盟委员会就提出了《人工智能法案》草案,这可谓是最早的人工智能法案草案了。
该法案提出,将在该技术被应用于“高风险”领域时采取积极的保障措施,同时为低风险应用程序的实验留出更多空间。
根据最近的媒体报道,《人工智能法案》已经于今年5月获得批准。这成为西方第一部针对人工智能系统的法律,标志着欧盟在人工智能领域的竞赛中取得了里程碑式的进展。
该法案采用了基于风险的方法监管人工智能,其中系统的义务与其所构成的风险水平成正比。规则提出了对ChatGPT等所谓“基础模型”提供商的要求。出于对这些模型的先进性以及技术工人可能会被取代的担忧,这些模型已成为监管机构的一个主要关注点。
该法案将人工智能的应用分为四个风险级别——不可接受的风险、高风险、有限风险和最小风险或无风险。
所谓不可接受的风险应用程序默认被禁止,包括人工智能系统使用潜意识技术、操纵或欺骗技术来扭曲行为,人工智能系统利用个人或特定群体的漏洞,基于敏感属性或特征的生物识别分类系统,用于社交评分或评估可信度的人工智能系统,用于预测刑事或行政犯罪风险评估的人工智能系统,人工智能系统通过无针对性的抓取创建或扩展面部识别数据库,人工智能系统推断执法、边境管理、工作场所和教育中的情绪等。
为此,法案对“基础模型”提出了要求,基础模型的开发人员在公开其模型之前,必须采取安全检查、数据治理措施和风险缓解措施。他们需要确保用于其系统的训练数据不违反版权法,还必须遵守数据治理要求,例如检查数据源的适用性和可能的偏见。
需要说明的是,虽然该法案获准通过,但要真正在现实中付诸实施,还有很长的路要走。
美国迈出重要一步
众所周知,美国以其对技术创新的自由放任而闻名于世,但即便如此,正如有些媒体所说,它正朝给新的人工智能制定规则的方向迈出重要一步。
在美国,地方、州和联邦官员都已开始采取措施制定规则。拜登政府在去年秋天提出了《人工智能权利法案》的蓝图,该法案试图解决歧视、隐私和用户选择退出自动化系统的能力等问题。但一些专家表示,对于生成式人工智能带来的一些问题,如大规模生产虚假信息的可能性,蓝图并未提供解决方案。人们越来越担心聊天机器人会让公众难以相信他们在网上遇到的任何事情。
据报道,拜登政府还在研究人工智能系统的潜在问责措施。在征求公众反馈意见时,美国商务部国家电信和信息管理局就在研究人工智能审计和评估的新政策,以解决偏见、歧视、数据保护、隐私和透明度等问题。这既包括人工智能系统和自动化系统定义范围内的所有事物,也包括可以“生成影响真实或虚拟环境的预测、建议或决策等输出”的技术。
根据英国媒体报道,为避免侵犯知识产权,音乐公司环球音乐集团已下令Spotify和苹果等流媒体平台阻止人工智能服务从受版权保护的歌曲中抓取旋律和歌词。该公司担心人工智能系统正在接受针对艺术家知识产权的数据训练。因此有人预测,知识产权诉讼已经迫在眉睫。
5月16日,奥尔特曼在美国参议院司法委员会举行的听证会上表示,他所在的机构相信人工智能有能力改善我们生活的几乎所有方面,但它也会带来重大风险,我们必须共同努力加以管理。为此,他支持对该技术进行监管,以便在发挥人工智能优势的同时,最大限度减少其危害。
奥尔特曼表示,政府的监管干预对于降低日益强大的模型的风险至关重要。为此,他建议美国政府考虑发布人工智能模型的许可和测试要求,建立一套安全标准,要求人工智能模型在部署前必须通过特定模型测试,并允许独立审计员在模型启动前对其进行检查。他认为对于一项特殊的新技术,我们需要一个新的管理框架。
奥尔特曼和美国纽约大学心理学和神经科学名誉教授加里·马库斯都呼吁建立新的技术监管机构。马库斯认为,人工智能非常复杂且发展迅速,建立“一个全职工作的机构”对其监管至关重要。
人工智能背景下的教学策略
人工智能正在改变世界,人们的注意力可能更多集中在它对社会的巨大冲击上。但事实上,其最先改变的是教育领域,这是人们能看到切实变化的重要领域。
今年5月,美国教育部教育技术办公室发布了一份题为《人工智能与教学的未来:见解与建议》的报告。该报告承认,人工智能的快速发展正在影响社会,并总结了人工智能在教学、学习、研究和评估方面的机遇和风险。该报告也是拜登政府积极应对人工智能对教育冲击的对策之一。
该报告称,人工智能通过语音、手势和其他人类交流方式,实现了学生、教师和计算机之间新的互动。这些新形式可用于支持残疾学生、为完成协同作业的学生提供额外的“伙伴”,或者帮助教师处理复杂的课堂案例。
该报告还强调,人工智能可以帮助教育工作者解决学生学习的个体差异性。例如,人工智能可以帮助英语为非母语的学生,还可以增强学生与教师间的反馈。
但该报告同时也发出警告,人工智能会增加已知风险并引入新的风险,包括数据隐私和安全、算法歧视、不适当的输出、对历史的不准确描述、不必要的监视和信任受损等。以教育为例,该报告称,他们坚定地认为人们都希望人工智能支持教师,而不是用人工智能取代教师。
该报告建议联邦政府、各州、高等教育机构、学区和其他合作伙伴要强调人的重要性,使人工智能模型与共同的教育愿景保持一致,使用现代学习原理设计人工智能,优先加强信任,告知教育工作者并让其参与其中,研究和开发的重点是解决环境问题并增强信任和安全,制定针对教育的指导方针等。
这份长达71页的报告提出了共享知识、吸引教育工作者以及完善人工智能在教育中使用的技术计划和明确的政策需求。它认为人工智能作为快速发展的技术,可在教育工作者和学生之间实现新的互动,帮助教育工作者解决学习的差异性,增加反馈循环,增强学生的适应性。然而,它也概述了算法偏差等与人工智能相关的风险,以及信任、安全和建立适当的技术护栏对保护教育工作者和学生的重要性。
据报道,除了美国教育部的这份报告外,拜登政府还宣布了旨在推进人工智能研究、开发和部署的全新举措,包括国家人工智能研发战略计划和即将发布的人工智能战略等。
全新的学习时代
从目前的发展趋势看,人工智能系统将对学校运作、教师工作以及学生的学习和就业产生广泛的影响。这主要表现在如下几个方面。
首先,年青一代总是新技术的最先接受者与踊跃使用者。作为数字世界的原住民,当下青年人不但接受,还引领着新技术的发展。他们总是比其他许多人更快地成长为新技术专家,同时也能为新技术开辟新的应用天地。
其次,人工智能给学校的系统应用不仅带来了挑战,也带来了机遇。它所能提供的帮助及未来的发展潜力是显而易见的,包括帮助教师设计课程并分析学生日常表现、设计学习干预措施和新课程计划等。新技术更多地拓宽了人们的视野,从而迎接新的、更强大的未来。
再次,教师已成为这项新技术的促进者。据美国媒体报道,目前约有30%的教师正在使用人工智能制订课程计划,但这并不意味着我们已走人工智能取代专业教育工作者的路上。事实上,这很可能意味着训练有素、能力强的教师成为人工智能学术环境中重要的学习促进者。教师需要更多了解这项技术,才能充分挖掘其在课堂上的应用潜力。
英国教育大臣吉莉安·基根最近指出,通过适当的开发和支持,课堂上的常规和时间密集型任务可以外包给人工智能代理,教师则可以专注于高阶教学的相关工作。
正如有人所说,我们已经处在一个全新的学习时代。为此,我们需要一种新的方法,实现以人类繁荣为中心的人工智能在教育领域的部署。这不仅能加强学生的学习,还能使我们的后代以更加人性化的方式成长,从而帮助我们所有的孩子和我们的星球都能繁荣发展。
(作者系中国人民大学首都发展与战略研究院副院长)
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。