人工智能与情报收集分析
人工智能是引领未来的战略性技术,世界上一些主要发达国家把发展人工智能作为提升国家竞争力、维护国家安全的重大战略。随着互联网的普及和飞速发展,人工智能渐渐成为国际竞争的新焦点,将深刻影响情报收集分析能力。
人工智能对情报收集分析的影响
人工智能是计算机科学、信息论、神经生理学、心理学等多种学科互相渗透而发展起来的一门综合性学科。人工智能解放了人脑,让人从繁重的重复性工作中解放出来,专注于发现性、创造性的工作。
大数据时代,我们身边充斥着各种各样的数据与信息,这些数据与信息成为重要的情报源。美国国防情报局总部的墙上就有一行字,告诫要注意普通民众的意见、评论和玩笑。由此可见我们身边的数据与信息具有非常大的价值,准确高效地收集并分析这些信息为我所用,人工智能将会发挥极大作用。
2017年7月12日,美国权威智库发布的《人工智能与国家安全》报告提到,情报工作者如果能从监控、社交媒体等渠道获取越来越多的数据,通过对这些数据进行筛选、分类和组织,有助于及早发现威胁国家安全的各种情报。
当前,数据海量增长,只靠人力要想收集全部数据,很难完成,也不太现实。因此,推进机器学习或者应用人工智能来收集分析情报,将大大缓解分析人员的负担。人工智能对于情报收集分析的主要影响集中在以下两点。
一、信息来源更加广泛。相比于人工智能收集数据的能力,之前计算机技术只能算是小儿科。以往我们获知的情报信息大多是邮件、手写文档、电话录音和照片等,这些情报是陈旧的、小范围的,信息的不确定性高。如今步入大数据时代,摄像头和无人机正在源源不断地向情报机构输送着大量的图片和视频,社交网络上每分每秒都在生成海量的信息,这使得信息来源更加广泛,如果能及时对这些信息进行处理,将把很多社会安全事件遏制在萌芽阶段。
二、分析方法更加科学。以前,情报学在研究中普遍采用的是确定性研究方法。但是,该方法必须适应于人类社会组织,而人类社会组织属于复杂系统,本身带有不确定性,因此确定性研究与情报活动本身并不匹配。分析技术又被认为是情报学的核心技术,人工智能分析技术是基于大数据建立研究范式的,在特定条件下,人工智能对于不确定性研究对象的分析能力已经超过人力分析,而且对于大量、多维性的数据分析占有绝对优势。因此,人工智能采用的分析方法更加科学,分析结构更加准确,有效避免了某些人为因素导致的偏差,这将会大大节省人力。
基于以上两点,我们可以看出人工智能有着强大的信息优势,将极大提升数据收集与分析能力,并提升产生新数据的能力,这对于情报收集分析将产生重大影响。
情报收集分析中的人工智能应用
当前,人工智能广泛应用于公开信息的深度挖掘,主要用于发现数据与数据管理、信息与事实之间的关联。作为信息技术革命的发源地和领跑者,美国在迎接人工智能新未来的过程中一马当先,也不断将人工智能运用到情报收集分析工作当中。
一、人工智能用于军事情报的收集分析。随着移动互联网基础设施的普及,以及无人机、摄像头等传感器的发展,情报工作要处理的数据量激增。以美国为例,美国国防部大量采购和部署了配有高清摄像头的无人机,并将其广泛应用于阿富汗和伊拉克两个战场,以期从源源不断传回的海量视频资料中获得敌人异常行动的蛛丝马迹,然而这些海量的视频信息让数量庞大的美国情报分析员忙得焦头烂额,效率十分低下。为解决这一问题,美国国防部于2017年4月成立“算法战跨职能小组”,推动国防部加速运用人工智能、大数据及机器学习等关键技术,以期从海量情报中快速获取有用的战场情报。这将有助于减轻全动态视频分析方面的人力负担,将情报分析员从海量的信息辨识、分拣和提炼工作中解放出来,产生更多具有实际价值的情报,提高军事决策水平。
二、人工智能用于社交媒体信息的收集分析。除了用于军事领域的情报收集分析外,美国中央情报局也将之用于日常生活信息的收集分析。以人工智能为基础的算法不仅可以挑选出关键词和名字,还可以分析出数据里隐藏的规律以及与其他事件之间的关联,并且在一次次的规律寻找中不断自我完善。人工智能的运用可以扩展情报处理的手段和范围,找到有价值的碎片信息,可以为防务、情报以及国土安全分析人员就潜在的危机提供早期预警。因此,美国中央情报局充分利用人工智能技术,提升数据收集分析能力,尤其注重获取社交媒体数据。他们通过搜索社交媒体,梳理海量的公共记录信息,形成社交媒体大数据,并对这些数据进行筛查。这种方式,改变了美国情报机构过度依赖人类经验的现状,借助人工智能,提高了情报分析的精准度。
三、人工智能用于网络舆情的分析。互联网每天产生海量数据,大大增加了舆情信息的挖掘难度。运用人工智能,可以实现对互联网所有舆情信息的实时跟踪,并通过文本挖掘、自然语言处理、可视化分析技术,提供舆情监测、专题分析、智能报告、趋势预测、舆情画像、危机预警等服务。可以说,人工智能实现网络舆情分析的自动化、智能化、精准化。当前,人工智能已经广泛应用于政府公共管理和公共服务舆情方面,未来,随着知识图谱、图片音视频信息处理(感知智能)、自然语音处理技术(认知智能)的不断应用,网络舆情的自动化和智能化水平将显著提升,比如把简单的正负面倾向性分析上升到多维度的情感判断,比如用机器人取代大部分舆情分析师的工作,让舆情分析师将精力放在建模和效果评估上,而不是花大量时间进行日常枯燥报告的撰写。
人工智能在情报收集分析中应注意的问题
人工智能需要数据的支撑,没有数据的驱动,就无法进行各种分析与预测,也不能提供精准信息服务。海量数据的收集与分析,可能带来用户隐私信息的泄露。因此,人工智能应用于情报的收集,要充分考虑智能化应用与隐私安全的平衡。具体而言,要注意以下问题:
一、信息收集需要充分授权。2018年1月3日,支付宝的晒“个人账单”事件,遭到国家互联网信息办公室和工信部的先后约谈,其中不妥之处就是提前替用户勾选同意芝麻信用收集用户信息,并向第三方提供。这种做法侵害了用户的知情权和自由选择权。尽管用户为了享受智能化服务,让渡部分个人信息,但对用户个人信息的收集与分析,必须首先获得用户授权。
二、大数据分析应有边界。在人工智能条件下,一个国家的个人信息数据――包括年龄、血型、学历、病历、收入水平、消费记录、思想倾向等都被收集、存储和智能化计算,就可能关系国家安全。比如,通过各种智能穿戴设备、网络平台或者其他公共服务的智能系统可以生成和采集很多个人信息,这些信息经过网络传递和设备之间的数据同步,被更强大的大数据中心所收集和处理,就可以实现对某一国人口信息、经济社会信息的相关性分析。因此,对于敏感的密码、指纹、签名字迹、人脸特征等身份认证信息,更应该有明晰的界限,除特定情况并征得用户授权外,用户本人应绝对掌控,信息采集方也无权违规使用。
三、信息收集与利用要防止用户隐私数据泄露。人工智能的各种应用会越来越多地抓取个人信息,如何防止用户隐私数据泄露将是很大的挑战。一方面,信息收集方要承担起保障数据安全的义务,防止用户隐私数据信息泄露,切实贯彻网络安全法中“谁收集,谁负责”的原则。另一方面,用户也要提高自身安全意识,对社交媒体上的各种行为要采取安全防范措施,注意保护自己。
(原载于《保密工作》2018年第4期)
人工智能技术在美军情报分析和指挥决策领域的应用综述
1.引言
近年来,在战争需求和技术进步的推动下,传感器和采集平台的能力显著提高,收集了大量数据,这可能使作战人员对战场态势的理解更加丰富和准确。但是,庞大的数据量超出了情报分析人员将其转化为行动情报的能力,无法为战场态势理解提供有效的帮助。现代战场环境的高度复杂性、动态性和不确定性,也需要指挥官能够适应环境变化、快速应对战场不确定性、加快决策速度。美军在图像识别、自然语言理解、认知计算等方面开展了大量研究,积极推动人工智能技术在军事领域的应用,提升作战能力。本文研究了美军在情报分析和指挥决策中的人工智能技术应用。
2.人工智能应用概况1)情报分析
美军积极将人工智能技术应用于图像等半结构化和非结构化数据的处理。DARPA于1976年开始图像理解(ImageUnderstanding)项目,目标是开发能够自动或半自动分析军事照片和相关图片的技术。2017年4月,美军成立“算法战跨职能小组”(AWCFT,即Maven项目),分析无人机提供的大量视频信息。该项目将计算机视觉和机器学习算法融入智能采集单元,自动识别针对目标的敌对活动,实现分析人员工作的自动化,让他们能够根据数据做出更有效和更及时的决策。
美军采用人工智能技术提升多源信息融合能力,构建统一的战场图像。DARPA于2011年设立“洞悉”(Insight)项目,通过分析和综合各类传感器和其他来源的信息,集成烟囱式的信息形成统一的战场图像,发现威胁和无规律的战争行动。该项目用于增强分析人员实时从所有可用来源收集信息、从中学习以及与最需要的人分享重要信息的能力。该项目的目标是提供全面战场态势,增强情报分析人员为战场上时间敏感的行动提供支持的能力。
美军还将人工智能技术应用于动态行为的分析,提升战场空间感知能力。DARPA于2010年启动“心灵之眼”(Mind’sEye)项目,寻求使用人工智能进行视频分析,开发一种机器能力——视觉智能,提供观察区域中与活动相关信息,能够提前对时间敏感的重大潜在威胁进行分析。它与机器视觉的区别在于:后者是识别各种物体以及它们的特性,描述的是静态情景;前者的重点是增加感知和认知,辨别和推断这些情景中的动作和行为,获得关于情景更加完整的描述。
此外,美军情报高级研究计划局(IARPA)也在寻求利用人工智能技术来辅助整理传统情报手段收集的信息。近期完成的知识、发现和分发(KDD)项目可帮助对来自分析或现场报道等不同来源的数据进行归类。
2)指挥决策DARPA在20世纪80年代资助动态分析和重新规划工具(DART)项目,采用自动推理,显著改善沙漠风暴和沙漠盾牌行动中后勤和其他领域的规划问题。DARPA于2007年启动“深绿”(DeepGreen)项目,借鉴“深蓝”,将人工智能引入作战辅助决策,预测战场上的瞬息变化,帮助指挥官提前思考,判断是否需要调整计划,并协助指挥官生成新的替代方案。它通过对OODA环中的观察和判断环节进行多次计算机模拟,提前演示不同作战方案可能产生的各种结果,对敌方行动进行预判,协助指挥官做出正确决策。“深绿”将指挥官的注意力集中于决策选择,而不是方案细节的制定。2017年,美国陆军通信电子研究、开发与工程中心(CERDEC)开发了自动计划框架(APF)原型,帮助指挥官和参谋人员分析军事决策过程、评估机动、后勤、火力、情报及其他作战行动过程,提供加快指挥官规划和发布指令速度的关键技术。自动计划框架是一个自动化工作流系统,在任务规划相关的标准图形和地图中嵌入了实时数据、条令数据,为军事行动提供通用的参照系。借助自动计划框架,指挥官和参谋可通过军事决策程序同步工作或在规定时间内按任意顺序生成最佳计划。自动计划框架项目的成果包括三个方面:计划模型、计划生成器和计划监视器。为了应对海量数据及复杂的战场态势,美军希望利用苹果公司的Siri、谷歌助理、亚马逊的Alexa和微软的Cortana等产品的成果,处理海量的多源情报信息,为指挥官制定决策提供支持。美国陆军于2016年启动了指挥官虚拟参谋项目,综合应用认知计算、人工智能和计算机自动化等技术,提供主动建议、高级分析及人机交互,为陆军指挥官及其参谋制定战术决策提供从规划、准备、执行到行动回顾的全过程决策支持。美空军正在开展类似的研究。2018年1月,美空军发布“数字企业多源开发助手”(MEADE)项目的广泛机构公告,试图通过对话的方式来改进军事情报分析,同时支持决策制定。美空军研究实验室(AFRL)资助辛辛那提大学研究人员开发名为“ALPHA”的人工智能系统,它通过收集大量来自战斗机上种类繁多的传感器所采集的数据,协助处理这些信息,并理解它的背后含义,从而提供合适的建议。2016年,该系统在飞行模拟测试中,作为红方在模拟空战中用三代机成功击退了有预警机支持的四代机。3.近期研究项目1)指挥官虚拟参谋(CVS)美国陆军通信电子研究、开发与工程中心下设的指挥、力量和集成局(CP&I)于2016年启动了指挥官虚拟参谋项目。该项目的目的是采用工作流和自动化技术帮助营级指挥官和参谋监控作战行动、同步人员处理、支持实时行动评估,在复杂环境中为决策制定提供可用的信息。该项目将提供以下能力:任务指挥中的任务分析:确定可自动化的任务基本组成清单,增强指挥官和参谋的决策制定能力;工作流组织:一种同步并加速指挥官和参谋在灵活和可修改的框架下执行军事决策程序(MDMP)的软件工具,以支持部队标准作业程序;行动作战方案评估:用于持续任务监控并比较可选作战方案的软件算法和模型,提示指挥官和参谋做出决策或修正行动;评估可视化:将数据和流程固化为可执行的信息,能够对分散的低级别评估结果进行检查;任务自动化:能够将流程和程序自动化的软件代理。该项目的研究计划如图1所示。图1 CVS项目研究计划2)数字企业多源开发助手(MEADE)随着所收集的情报数据的复杂程度、速度、种类和数量的增加,多源情报分析的效率也需要相应地提高。2018年1月,美空军发布“数字企业多源开发助手”项目的广泛机构公告,寻求研发一种交互式问题解答系统,作为虚拟助手帮助分析人员处理海量的复杂情报数据,更好地从对手相关的信息中发现和解读存在的模式。该项目所寻求的能力不是简单地罗列潜在情报来源,让分析人员自己解决问题,而是能够直接回答问题或者通过与用户交互,协助引导情报分析人员找到答案。在该项目中,交互式问题解答中的“交互”包括两个方面,一是用户与软件进行交互,另一是不断地响应用户的输入,使得问题更加明确并提升答案的满意度。它不仅可以支持情报分析,还可用于决策制定。该项目的目标是使得任何人员无论技术能力如何,都可以完成复杂的分析任务。MEADE项目包含两个重点关注领域:“实时操作员驱动的要点探索与响应”(ROGER)和“交互式分析和情境融合”(IACF),如图2所示。图2MEADE项目概念视图ROGER是一个会话式问答系统,研究人员将开发一个分析助手,提供便捷的接口来支持交互式搜索、信息检索并在给定的问题空间中进行分析。它整合了多情报源搜索/检索、自然语言处理、推荐引擎、应用分析和问答系统等,将运行在云或分布式计算环境中。ROGER将确定是进一步分析还是已有直接可用的答案。ROGER充分利用用户的行为和提示信息。在IACF中,研究人员将开发情境融合和预测分析能力,为给定态势找到最好的行动方案。此外,该领域需要研究与ROGER的交互方法,所开发来的技术应能够回答ROGER驱动的分析性问题,至少包括以下内容:针对多源情报的数据分析;跨多平台或多传感器的情境融合;用户和实体的行为分析;使用结构化叙述或类似的通用语义表达来组织信息;相关软件;提供响应时间、精确度等评价指标。AFRL为该项目投资2500万美元,将在五年内分阶段实施。AFRL将成立一个系统集成研究室,通过其“自动化处理和开发中心”来支持相应的安装、测试、分析和完善等工作。3)“指南针”(COMPASS)2018年3月,DARPA战略技术办公室(STO)发布了一项名为“指南针”的项目,旨在帮助作战人员通过衡量对手对各种刺激手段的反应来弄清对手的意图。目前采用的OODA环不适合于“灰色地带”作战,因为这种环境中的信息通常不够丰富,无法得出结论,且对手经常故意植入某些信息来掩盖真实目的。该项目试图从两个角度来解决问题:首先试图确定对手的行动和意图,然后再确定对手如何执行这些计划,如地点、时机、具体执行人等。但在确定这些之前必须分析数据,了解数据的不同含义,为对手的行动路径建立模型,这就是博弈论的切入点。然后在重复的博弈论过程中使用人工智能技术在对手真实意图的基础上试图确定最有效的行动选项。COMPASS项目包含三个技术领域,如图3所示。第一个技术领域侧重于对手长期的意图、策略;第二个技术领域为战术和动态作战环境的短期态势感知;第三个技术领域建立指挥官工具箱。图3COMPASS项目的架构COMPASS利用现有的先进技术,包括从非结构化信息源中提取事件的技术(例如主题建模和事件提取)等。COMPASS能够应对不同类型的灰色地带情况,包括但不限于关键基础设施中断、信息作战、政治压力、经济勒索、安全部队援助、腐败、选举干预、社会不和谐以及混乱等。COMPASS测试与评估(T&E)团队在虚拟环境中对技术进行评估,并通过实时建模仿真推动技术评估。图4描述了集成COMPASS系统的高级功能视图。军事用户通过第三个技术领域表达他们的态势感知需求。第一和第二个技术领域分析感知数据,并根据态势感知需求和对环境的认知,提出旨在减少歧义的探测行为。用户审核推荐的行为并决定要执行哪些行为。探测行为的结果成为作战环境的新状态。图4COMPASS系统高级功能视图COMPASS项目预计耗时30个月,开发计划分为2个阶段:第1个阶段为期12个月,主要完成物理系统建模;第2个阶段为期18个月,将加入社会与文化等要素,完成多技术实验和原型转换。4.结语随着战场环境和对手的日益复杂多变,人工智能技术在指挥控制领域将发挥更加重要的作用,成为深入理解对手意图、增强战场态势理解、加快决策速度和正确性的重要因素。声明:本文来自防务快讯,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系anquanneican@163.com。
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊