人类如何应对人工智能带来的心理威胁
原创喻丰许丽颖中国社会科学网
各种形式以及不同形态的机器尤其是人工智能以虚体(如算法)或实体(如机器人)的方式不断渗入人类社会生活。人类对它的关心程度远远超过其他技术革新。我们讨论着人工智能会不会有一颗类似人类的“心”,期望着人能把人工智能发展到何种水平、何种模样,但却似乎忽略了一个问题,即人本身才应该是我们最终着眼的地方。
那么,人工智能会改变人吗?如果它会改变人,它一定会改变人类社会。但更深层次的问题是,它会改变人性吗?现阶段肯定不会,但如果如科幻电影所描绘,真的出现了强人工智能,它有自我意识、无所不能,那我们如何看待人性呢?这就很难说了。需要注意的是,我在这里说的人性是描述的而不是规范的,回答的是什么是人的问题,不是人性善恶的问题。如果在未来社会人工智能飞速发展,将可能产生人工智能的异化。也就是说,机器人实际上是人所创造的客体,但在未来社会它可能同人这个本体相脱离,成为主体的存在,甚至反转过来束缚、支配乃至压抑人类。我们这些占据食物链顶端的人类会在不久的将来面对前所未有的危机和挑战,比如算法开始替代人类做出选择,一些原来只有人类能做的工作将会被机器人所取代。那么此时人如何看待自己呢?也就是说,它会改变人如何看待自己作为人的定义性特征吗?
人心是什么?人工智能从业者都知道著名的图灵测试(TuringTest)。图灵测试是一条典型的一元标准,即“通过”便是人,而“不通过”则非人。图灵测试非常完美,它简单地告诉我们,在不知道是人还是机器人的条件下,经过数轮交互,人无法分辨对方是人还是机器人,那么机器人便以假乱真地可以被看作具有人心。心理学有自己的理论。对应道德理论(DyadicMoralityTheory)是代表性的人心二元理论,它认为人性实际上包含两个维度,即能动(agency)和体验(experience)。能动是道德主体(moralagent)的道德地位体现,能动者常常被人知觉为行为的发出者,因此能动高者被认为需负道德责任。体验是道德客体(moralpatient)的道德地位体现,体验者常常被人知觉为行为的接受者,因此体验高者被认为具有道德义务。人性不过是能被人知觉为体验或者能动而已。人即能动、体验兼而有之;上帝仅能被知觉为能动,并无体验;机器能动感知不及上帝,也并无体验;婴儿、动物并无能动,但有体验。那么,何为体验?即有饥饿、害怕、愉悦、愤怒、欲求、人格、意识、骄傲、尴尬和喜悦的能力。何为能动?即有自我控制、道德、记忆、情绪再认、计划、交流和思考的能力。
心理生活概念(conceptionsofmentallife)理论对上述对应道德理论的维度重新进行了划分。它对人性能力进行了重新筛选和大样本调查,发现人类心理生活概念即人心,应分为身体(body)、心智(mind)、情感(heart)三个维度。身体维度包括这样一些能力:感受饥饿、体验疼痛、感受劳累、体验恐惧、体验愉悦、进行计算、有自由意志、有意识、感觉安全、有欲望、感受恶心、感受平静、感到生气、有意图、能知觉到自我。心智维度包括这样一些能力:记住东西、再认他人、感觉温度、与他人交流、看到东西、感知深度、朝向目标努力、听到声音、做出选择、推理、闻到气味。情感维度包括这样一些能力:感受尴尬、体验自豪、感觉爱、体验愧疚、有信念、感觉不受尊重、感到抑郁、理解他人感受、体验快乐、有人格、感受高兴、分辨对错、自我克制、有思维。此理论不再从行为的发出者和接受者角度来考虑,而是脱开人际原因,直接用个体的身体、心智和情感来进行划分,虽然内在逻辑稍有重合之处,但是这三个维度已然可以解释不少人心现象。物体如订书机在三个维度上均无;机器人没有情感和身体,只有心智;甲壳虫有部分的身体和心智,但是没有情感。
我们综合诸理论,通过大样本调查和多个实验去探究在未来社会如果发生人工智能的异化,人类如何判断人心维度的变化问题,也发现了一些初步结论。譬如,我们发现这样一些能力,民众判断其在未来社会会变得更加重要,按照重要性排序为:创造力、思考的能力、自我控制的能力、有思维的能力、有学习的能力、思想有深度、有想象力、进行自我克制的能力、有人格、有自由意志、道德的能力、有自我约束的能力、有灵活思维的能力、有意识、坚持道德价值观的能力、能觉知到自我、有控制情绪的能力、有信念、分辨对错的能力、逻辑思考的能力、有求知欲、有主动行为的能力、体验快乐的能力、感觉爱的能力、有文化、沟通的能力、审美的能力、有自省的能力、朝向目标努力的能力、反对不道德行为的能力、赞扬道德行为的能力等。我们也发现,这样一些能力在未来被民众判断为并不重要,按照重要性排序为:感受饥饿的能力、进行计算的能力、有尊卑观念、体验疼痛的能力、感受劳累的能力、感受恶心的能力、体验恐惧的能力、感受尴尬的能力、闻到气味的能力、体验恐惧的能力、感到生气的能力、遵从指导学习的能力、感觉温度的能力、感到抑郁的能力、感受愤怒的能力、听到声音的能力、感受到不尊重的能力、记住东西的能力、记忆的能力、看到东西的能力、再认他人的能力、感受压力的能力、体验愧疚的能力等。稍加归纳便可以发现,人们认为,在未来更加重要的能力是道德、理性、审美、自我意识、自我控制等;在未来变得更加不重要的能力是一般认知能力、身体能力、消极情感等。对于道德、理性、审美、自控等高级加工能力在日后会变得重要,一般认知能力因人工智能本身强于人类而变得并不重要,人们比较好理解。但是,人类情感将变得并不重要,这个较为反直觉。但要注意,这里的情绪均为消极情绪,消极情绪在进化上更多是让人活下来的情绪,而积极情绪才是让人活得更好的情绪。
如果从维度观来看,我们则发现,当面临人工智能威胁时,人类会觉得体验稍稍变得重要了一些,能动变得不那么重要。身体、情感维度都没有太大变化,但是心智维度的重要性大幅度降低。这是一个非常有意思的现象。人类面对未来的人工智能如何看待自己的人心维度,从普遍意义上来说,将某些维度看得重要是较为合理的,但结果却是,比起什么维度重要,我们更加关心自己人性的哪些方面不重要,而不重要的那些维度就是人工智能本身就强于我们的那些维度,比如心智维度、能动维度。这有些类似阿Q,我们以把别人比我们强的部分看得不重要来抵御内心受到的威胁,而很少去知觉要提升我们比别人强的部分。当然,如果不只看粗略的维度,而看细致的特征,我们就会发现,那些让人活着(survive)的能力变得并不重要了,如一般认知能力、身体能力、消极情绪等;而那些让人活得更好的能力则变得更加重要了,如道德、理性、审美等。
面对人工智能的威胁,我们干脆放弃自己不如它的能力而强调它还没有的能力,这种失调本身也是人性的一部分。
(本文获国家社科基金青年项目“拟人化人工智能的道德责任归因研究”(20CZX059)资助)
(作者单位:武汉大学哲学学院心理学系;清华大学社会科学学院心理学系)
原标题:《人类如何应对人工智能带来的心理威胁》
人工智能是助手还是威胁
【科学向未来】
在人工智能迅猛发展的今天,如何看待人工智能——助手,还是威胁?今天,人工智能已经对社会产生了深刻且广泛的影响,反之,学者、大众与媒体的观点与态度对人工智能的发展也将发挥重要作用。世界各国的诸多研究机构和学者纷纷就这一热点问题进行了富有针对性和建设性的分析。梳理并理解这些研究报告,有助于以更稳健、积极的姿态,迎接人工智能带来的新一轮技术变革。
人工智能中的人类与机器人的界限
2016年,美国斯坦福大学在其发布的《2030年的人工智能与人类生活》研究报告中指出,在交通运输、家务劳动、医疗保健、娱乐产业、雇佣工作环境、公共安全、低能耗社区和教育这八大社会领域,人工智能已经开始逐步改变日常生活。2016年,Deepmind公司设计的人工智能程序AlphaGo在围棋领域挑战顶级职业选手获胜,并被披露该公司计划使用人工智能算法在五年内学习处理英国国家医疗服务体系的数据;2017年,索菲亚被授予沙特公民身份,成为世界上首个获得公民身份的机器人……人工智能领域中的里程碑事件,清晰预示人工智能时代的来临,在证明技术进步的发展潮流不可阻挡的同时,也对现代社会发展和公民生活造成了广泛影响。
在诸多影响中,最为直接的影响便是人工智能的应用将导致新的失业和再就业大潮。尽管这种情况尚未全面发生,但人们对此的焦虑情绪已经产生。根据盖洛普2013—2016年度工作和教育调查,当前美国有34%的80年后出生一代感到因技术资源缺乏可能失去工作的焦虑,这一人数比例较27%的美国二战结束后婴儿潮时期出生的工作者上涨了七个百分点;而根据估算,37%的美国“80后”属于被人工智能取代工作机会的高风险人群,比战后婴儿潮一代的32%提高了五个百分点。
除去对工作岗位和未来就业前景的冲击,人工智能通过改变交流技术和媒介,通过社交网络、新型数据交互方式,在很大程度上改变了现代社会的人际交流方式。在北极星和ASM联合撰写的调查报告中,有接近甚至超过半数的受访民众表示,尽管每天都在使用社交网络媒体和手机应用,但并未意识到这些科技产品中人工智能在暗中发挥作用。人工智能在潜移默化地改变人们的社交习惯和沟通方式,已经成为新媒体时代不可逆转的潮流。不仅如此,人工智能在诸多领域取得比肩人类的成就,对人类文明的自我反思也起到了推动作用。
在人工智能时代,回答机器人伦理、法律问题,思考人类和机器人的界限问题,已经是一项急迫的文明使命。今年12月1日电气与电子工程师协会发布新版人工智能与伦理白皮书,意味着人工智能技术、法律、伦理领域的深度研究和合作,将成为未来一段时期人类文明思考的重要方向。
大众和专家对人工智能的态度
尽管社会大众对人工智能技术的关注持续升温,但现有针对大众对人工智能技术发展意见的调查,仍然处于起步阶段。在2017年中,对人工智能产业的调查报告,仍然主要聚焦于人工智能行业的产业规模、资源配置和意见领袖。缺乏对大众参与和理解的足够关注,是当前人工智能产业发展的基本现状。
值得注意的是,媒体作为塑造并指导大众意见的重要社会资源,尚未寻找到有效整合大众对人工智能的理解,同专家意见和产业发展一同协调合作的道路。尽管如此,来自社会各界的专家,通过主流社交媒体迅速形成了人工智能意见领袖群体,并对人工智能发展的舆论导向产生了巨大影响。其中以谷歌公司技术总监科兹威尔、脸书公司总裁扎克伯格为代表的技术乐观派认为,过度强调人工智能技术的风险、所引发失业率上升的担忧,都是不必要的;人工智能最终会促进人类进步,而非取代人类。与之相反,比尔·盖茨和史蒂芬·霍金则认为人们对人工智能对人类生存带来的威胁缺乏了解,从长期发展角度来看,是极大的安全隐患。这一强调人工智能发展风险的专家、产业领袖群体,俨然在公共媒体中,成为技术乐观派的对立派别。当前媒体对大众意见的整合和引导,主要通过呈现技术乐观和谨慎忧虑派的意见纷争,激发大众讨论的方式完成。
事实上,仅仅依靠意见领袖吸引新闻流量,激发大众关注,远不足以打造一个健康、稳定的社会意见体系来支撑人工智能产业的良性发展。当前大众意见同专家学者意见欠缺有效整合,主要表现在以下两个方面:
首先是大众意见对人工智能的影响力估计,同专家意见存在明显落差。在学者专家看来,人工智能全面取代诸多就业岗位这一趋势,已经势不可挡。例如,创新工场董事长兼CEO李开复曾预测,从事翻译、新闻报道、助理、保安、销售、客服、交易、会计、司机等工作的人,未来10年将有约90%被人工智能全部或部分取代。但在北极星和ASM联合撰写的调查报告中,普通民众出于对安全和效率的双重考虑下,有超过半数的人认为,在重型制造、物流、公共交通、医疗、军事、消防、农业和烹饪领域,人工智能无法胜任人类工作。学者专家和业界领袖对人工智能的变革影响力非常乐观,而大众对此则相对保守,甚至过于谨慎。
其次是对人工智能的立场态度,存在大众和专家群体之间的显著差异。专家学者对于人工智能的未来前景,分为立场明确的乐观支持和谨慎质疑两大阵营。而据现有调查显示,很难用明确支持和忧虑风险对大众意见进行有效归类,在北极星和ASM联合撰写的调查报告中,对人工智能未来持担忧、缺乏信心、迷惑、激动、兴奋和乐观的人数,分别占受访者比例的27%、25%、9%、20%、30%、33%。现对于业界和学界意见领袖的立场鲜明,大众对待人工智能未来的态度更加温和保守,更多地持观望态度。
大众理解和专家意见的不同和分歧,意味着在应对人工智能发展所带来的社会变革、关系人类文明发展的重大问题上,现有的社会智力资源尚未获得有效整合。这既对人工智能重大伦理、法律问题的解决造成了阻力,也增加了人工智能未来发展所可能产生的风险。
学者、大众与媒体需要良性互动
如何将学者研究、专家意见、公众参与有效整合,形成合力,铺就人工智能产业的未来发展道路,是当前人工智能乃至全社会亟须反思应对的重要问题。根据现有调查报告和产业发展现状,以下两个思路有其借鉴价值:
一方面,需要建立针对大众对人工智能发展的历时性跟踪调查,深入了解大众对人工智能态度的转变机制。北极星和ASM联合撰写的调查报告指出,尽管当前只有55%的受访民众愿意信任无人驾驶汽车,但考虑科技发展,预计在未来十年内愿意信任无人驾驶汽车的人数比例可能提升到70%;随着人工智能技术的发展,大众对相关产业的理解和态度,也必将产生变化。通过历时性民意调查观测民众对颠覆性技术的态度转变,有助于相关产业发展的自身调整和应对策略,也有助于媒体平台更好的完成社会智力资源整合工作。
另一方面,要搭建科学家群体同大众互动的媒体平台,促进科研人员群体同社会大众的充分交流。打造专家、大众、媒体之间分享、参与和关怀的完整互动链条,一方面让大众更加直观获得人工智能领域的发展趋势和最新成果,引导大众参与技术变革,培养大众主动应对技术变革的思考习惯和积极态度;一方面通过大众的参与和意见表达,对产业领袖和专家的意见形成有效监督约束,督促人工智能产业以更具责任感、对人类文明负责的态度,讨论技术进步和产业发展问题。这一专家、大众、媒体的良性互动链条,也将成为人工智能产业发展的快速通道。
(作者:刘萱 罗晖 单位:中国科学技术协会创新战略研究院)
面对人工智能的发展,人类该何去何从
对于人工智能,人们其实存在很多误解与盲点。多数人都会认为AI是在过去十年左右才出现的。但事实上,AI在二十世纪五十年代就已经开始发展了。在达特茅斯会议上,人工智能的先驱们聚在一起,讨论着人工智能是什么、该如何定义并研究它。他们当时相信人工智能可以很快被实现——如果机器有能力处理某一项工作,它理应可以很快地掌握处理一项更难工作的能力。但遗憾的是,我们今天的AI并非如此,AI是一种垂直工作,我们只能将某些特定的技术应用到特定的任务中。我们离广义人工智能还非常遥远,目前的AI技术还很“专业”,所以要想将人工智能应用到每一个领域仍需要大量审慎的分析和工程设计。
我们的AI系统极度依赖数据,收集的数据的质量很大程度上决定了最后AI模型的表现。然而,目前的数据搜集工作还存在很多问题,我们搜集数据的时候通常会带有个人的主观想法和预设,所以搜集到的数据不总是能够真实代表这个世界,会导致模型产生知识盲区,例如人脸识别系统无法识别有深色皮肤的人群。所以,数据的不完整会导致AI系统无法有效地为某些少数人群服务。
人类的角色
在人工智能时代,我们需要对AI开发流程进行改造。在传统的软件开发领域,几十年的经验积累让程序员们非常清楚每一次的bug修复所带来的结果。现在,我们也应该把这套标准带到AI系统开发领域。在过去的几年中,我们一直在尝试将人类的洞见融入到AI系统的调试和bug修复过程中,从人的角度去了解AI系统存在的问题和盲点,以及问题将会导致的后果,尝试如何通过融入人类智慧来改进AI系统不尽如人意的地方。
我想强调的是,人工智能是被人开发、由人推动、并为人所用的。人工智能不可能自己凭空诞生出来。人类其实是很多AI系统的指南针,比如计算机视觉、人脸识别等。我们在设计系统时,也会思考如何才能将作为“指南针”的人类融入到AI系统的训练、执行以及故障排除中。人类已经是AI过程的一部分,正是那些从事AI系统工作的工程师和科学家们将自己的见解放入这些系统的设计和架构中,才有了现在神奇的AI魔法。
AI有很多数据资源来源于人,AI的不断发展离不开人类的智慧。众包为AI系统提供了获取人类智能的方法。通过网上和社交平台上的众包任务,人们生产了大量AI系统可以用来学习的数据。这种能够连接机器和人类智能的渠道对我们构建包含人类因素的AI系统非常重要。另外,在AI的发展过程中也需要人们对AI系统的不断评估,毕竟最终AI是为人类服务的,而这也是众包可以发挥作用的领域。
美好未来
我常常被AI领域外的人问道:“你能告诉我在未来的10年,20年内,美国将失去多少工作岗位,以及将会出现多少新工作吗?”实际上,我们离强人工智能还有很远的距离,我并不认为AI会自己变得更聪明,以至于将来所有的工作机会都会消失。与此同时,我们也要思考如何为可能发生的一些失业问题做好准备。
新的经济增长会在变化中出现,关键是要了解人和机器如何互补优势。机器可以很好地自动重复任务,擅长识别图案和处理规模任务,但是机器不擅长很多事情。人类擅长常识性事务,可以做反事实推理。我们可以利用小数据进行学习,并且举一反三,将其应用到我们以前从未见过的事情中去。最重要的是,我们有创造力。
在一篇关于麻省理工学院和哈佛大学合作研究的论文中提到,研究者让一台机器和放射科医师一起共同通过图像诊断乳腺癌,由于机器和人类会犯不同的错误,当两者共同合作时,诊断错误率会远远低于机器和人类单独诊断时的错误率。所以,只有我们充分利用人和机器的互补关系,才能创造人工智能的美好未来。
重磅发布!联想携手微软开启混合云市场新纪元!返回搜狐,查看更多
如何看待“人工智能威胁论”
首页电视剧内地美剧韩剧英剧自制剧电 影爱情喜剧科幻悬疑影院综 艺搞笑情感访谈真人脱口秀动 漫冒险搞笑益智亲子魔幻纪录片历史军事自然社会大视野新 闻社会国际军事财经正能量娱 乐独家现场八卦资讯明星专访体 育篮球足球花花体坛电子竞技自媒体搞笑做饭游戏汽车影视综美妆科技情感亲子生活其 他会员分类排行出品人千帆电视剧内地剧美剧电影美国华语综艺这样的你韩娱动漫少儿青春新闻娱乐播报VIP会员搜狐自制体育电竞纪录片自媒体影迷游戏军事千帆生活搞笑汽车教育排行榜VIP会员加入自媒体风月变星同事有一种爱叫放手父亲的草原母亲的河富春山居亲密玩家尼基塔第四季人工智能与国家政治安全
原标题:人工智能与国家政治安全人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。
人工智能影响政治安全的机理
作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。
从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。
从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。
人工智能给政治安全带来新挑战
技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。
挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。
挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。
挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。
挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。
挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。
多措并举,维护我国政治安全
政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。
人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。
当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。
没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。
针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。
(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)
(责编:杨虞波罗、初梓瑞)分享让更多人看到