【开局2023】人工智能产业发展仍面临诸多挑战
新华网北京2月3日电(记者孙云龙)作为新基建的重要组成部分,人工智能与5G、云计算、大数据等深度融合,将加速成为数字经济发展的重要驱动力。当前,我国人工智能发展仍面临诸多挑战。
人工智能对新经济发展的驱动作用日益受到重视。中国信息通信研究院发布的《全球人工智能战略与政策观察(2020)》报告称,截至2020年12月,全球已有39个国家和地区制定了人工智能的战略政策、产业规划文件。
工业和信息化部的数据显示,截至2020年6月底,我国人工智能核心产业规模达770亿元,人工智能企业超过2600家。赛迪智库人工智能课题组认为,随着算法的创新、算力的增强、数据资源的累积,智能化基础设施的建设和传统基础设施将实现智能化升级,人工智能技术有望推动经济发展全要素的智能化革新。
我国人工智能产业快速发展的同时,产业本身也面临诸多挑战。该课题组表示,预计2021年,围绕算法、数据和算力人工智能的“三驾马车”,人工智能产业链建设力度将继续增大。
具体而言,在算力方面,2021年我国5G通信网络部署加速,数据的增长速度越来越快,人工智能训练所需的计算量将进一步呈现指数增长,相关行业对算力的需求将更为庞大。
由IDC与浪潮联合发布的《2020-2021中国人工智能计算力发展评估报告》认为,人工智能三要素中,算力成为驱动AI产业化和产业AI化发展的关键要素。服务器是人工智能基础设施的核心。该报告称,我国人工智能基础设施市场规模在2020年达到39.3亿美元,同比增长26.8%。其中,AI服务器市场规模占整体人工智能基础设施市场的87%以上。
赛迪智库分析认为,我国整体在人工智能算力基础设施方面准备不足,体现在芯片端对外依赖较大,服务器市场国内企业份额有限。
在算法方面,国内企业的算法框架和平台尚未得到业界广泛认可和应用,在深度学习框架核心技术领域支撑不足。
在数据方面,产业数据标准化和互联互通水平严重不足,降低了数据的可用性和可迁移性。
与此同时,人工智能行业在专业人才和典型场景应用等方面也面临挑战。
赛迪智库认为,应推动建立专用的AI计算设施夯实算力基础,构建智能生态圈,打造软硬件协同能力,持续支持人工智能开源开放和公共服务平台建设,更好推动产业发展。
【纠错】【责任编辑:华信】人工智能的创新发展与社会影响
党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明了方向。2018世界人工智能大会9月17日在上海开幕,习总书记致信祝贺并强调指出人工智能发展应用将有力提高经济社会发展智能化水平,有效增强公共服务和城市管理能力。深入学习领会习总书记关于人工智能的一系列重要论述,务实推进我国《新一代人工智能发展规划》,有效规避人工智能“鸿沟”,着力收获人工智能“红利”,对建设世界科技强国、实现“两个一百年”的奋斗目标具有重大战略意义。
一、引言
1956年人工智能(ArtificialIntelligence,简称AI)的概念被正式提出,标志着人工智能学科的诞生,其发展目标是赋予机器类人的感知、学习、思考、决策和行动等能力。经过60多年的发展,人工智能已取得突破性进展,在经济社会各领域开始得到广泛应用并形成引领新一轮产业变革之势,推动人类社会进入智能化时代。美国、日本、德国、英国、法国、俄罗斯等国家都制定了发展人工智能的国家战略,我国也于2017年发布了《新一代人工智能发展规划》,发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏等地政府也相继出台推动人工智能发展的相关政策文件,社会各界对人工智能的重大战略意义已形成广泛共识。
跟其他高科技一样,人工智能也是一把双刃剑。如何认识人工智能的社会影响,也有“天使派”和“魔鬼派”之分。“天使派”认为,人工智能领域的科技创新和成果应用取得重大突破,有望引领第四次工业革命,对社会、经济、军事等领域将产生变革性影响,在制造、交通、教育、医疗、服务等方面可以造福人类;“魔鬼派”认为,人工智能是人类的重大威胁,比核武器还危险,有可能引发第三次世界大战。2018年2月,牛津大学、剑桥大学和OpenAI公司等14家机构共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,指出人工智能可能给人类社会带来数字安全、物理安全和政治安全等潜在威胁,并给出了一些建议来减少风险。
总体上看,已过花甲之年的人工智能当前的发展具有“四新”特征:以深度学习为代表的人工智能核心技术取得新突破、“智能+”模式的普适应用为经济社会发展注入新动能、人工智能成为世界各国竞相战略布局的新高地、人工智能的广泛应用给人类社会带来法律法规、道德伦理、社会治理等方面一系列的新挑战。因此人工智能这个机遇与挑战并存的新课题引起了全球范围内的广泛关注和高度重视。虽然人工智能未来的创新发展还存在不确定性,但是大家普遍认可人工智能的蓬勃兴起将带来新的社会文明,将推动产业变革,将深刻改变人们的生产生活方式,将是一场影响深远的科技革命。
为了客观认识人工智能的本质内涵和创新发展,本报告在简要介绍人工智能基本概念与发展历程的基础上,着重分析探讨人工智能的发展现状和未来趋势,试图揭示人工智能的真实面貌。很显然,在当下人工智能蓬勃发展的历史浪潮中如何选择中国路径特别值得我们深入思考和探讨。因此,本报告最后就我国人工智能发展态势、存在问题和对策建议也进行了阐述。
二、人工智能的发展历程与启示
1956年夏,麦卡锡(JohnMcCarthy)、明斯基(MarvinMinsky)、罗切斯特(NathanielRochester)和香农(ClaudeShannon)等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能”这一概念,标志着人工智能学科的诞生。人工智能的目标是模拟、延伸和扩展人类智能,探寻智能本质,发展类人智能机器。人工智能充满未知的探索道路曲折起伏,如何描述1956年以来60余年的人工智能发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能60余年的发展历程划分为以下6个阶段:
一是起步发展期:1956年-20世纪60年代初。人工智能概念在1956年首次被提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序、LISP表处理语言等,掀起了人工智能发展的第一个高潮。
二是反思发展期:60年代-70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入了低谷。
三是应用发展期:70年代初-80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入了应用发展的新高潮。
四是低迷发展期:80年代中-90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:90年代中-2010年。由于网络技术特别是互联网技术的发展,信息与数据的汇聚不断加速,互联网应用的不断普及加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年IBM深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念,这些都是这一时期的标志性事件。
六是蓬勃发展期:2011年-至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器(GraphicsProcessingUnit,简称GPU)等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越科学与应用之间的“技术鸿沟”,图像分类、语音识别、知识问答、人机对弈、无人驾驶等具有广阔应用前景的人工智能技术突破了从“不能用、不好用”到“可以用”的技术瓶颈,人工智能发展进入爆发式增长的新高潮。
通过总结人工智能发展历程中的经验和教训,我们可以得到以下启示:
(一)尊重学科发展规律是推动学科健康发展的前提。科学技术的发展有其自身的规律,顺其者昌,违其者衰。人工智能学科发展需要基础理论、数据资源、计算平台、应用场景的协同驱动,当条件不具备时很难实现重大突破。
(二)基础研究是学科可持续发展的基石。加拿大多伦多大学杰弗里·辛顿(GeoffreyHinton)教授坚持研究深度神经网络30年,奠定人工智能蓬勃发展的重要理论基础。谷歌的DeepMind团队长期深入研究神经科学启发的人工智能等基础问题,取得了阿尔法狗等一系列重大成果。
(三)应用需求是科技创新的不竭之源。引领学科发展的动力主要来自于科学和需求的双轮驱动。人工智能发展的驱动力除了知识与技术体系内在矛盾外,贴近应用、解决用户需求是创新的最大源泉与动力。比如专家系统人工智能实现了从理论研究走向实际应用的突破,近些年来安防监控、身份识别、无人驾驶、互联网和物联网大数据分析等实际应用需求带动了人工智能的技术突破。
(四)学科交叉是创新突破的“捷径”。人工智能研究涉及信息科学、脑科学、心理科学等,上世纪50年代人工智能的出现本身就是学科交叉的结果。特别是脑认知科学与人工智能的成功结合,带来了人工智能神经网络几十年的持久发展。智能本源、意识本质等一些基本科学问题正在孕育重大突破,对人工智能学科发展具有重要促进作用。
(五)宽容失败应是支持创新的题中应有之义。任何学科的发展都不可能一帆风顺,任何创新目标的实现都不会一蹴而就。人工智能60余载的发展生动地诠释了一门学科创新发展起伏曲折的历程。可以说没有过去发展历程中的“寒冬”就没有今天人工智能发展新的春天。
(六)实事求是设定发展目标是制定学科发展规划的基本原则。达到全方位类人水平的机器智能是人工智能学科宏伟的终极目标,但是需要根据科技和经济社会发展水平来设定合理的阶段性研究目标,否则会有挫败感从而影响学科发展,人工智能发展过程中的几次低谷皆因不切实际的发展目标所致。
三、人工智能的发展现状与影响
人工智能经过60多年的发展,理论、技术和应用都取得了重要突破,已成为推动新一轮科技和产业革命的驱动力,深刻影响世界经济、政治、军事和社会发展,日益得到各国政府、产业界和学术界的高度关注。从技术维度来看,人工智能技术突破集中在专用智能,但是通用智能发展水平仍处于起步阶段;从产业维度来看,人工智能创新创业如火如荼,技术和商业生态已见雏形;从社会维度来看,世界主要国家纷纷将人工智能上升为国家战略,人工智能社会影响日益凸显。
(一)专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定领域的人工智能技术(即专用人工智能)由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,因此形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域,统计学习是专用人工智能走向实用的理论基础。深度学习、强化学习、对抗学习等统计机器学习理论在计算机视觉、语音识别、自然语言理解、人机博弈等方面取得成功应用。例如,阿尔法狗在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,语音识别系统5.1%的错误率比肩专业速记员,人工智能系统诊断皮肤癌达到专业医生水平,等等。
(二)通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。虽然包括图像识别、语音识别、自动驾驶等在内的专用人工智能领域已取得突破性进展,但是通用智能系统的研究与应用仍然是任重而道远,人工智能总体发展水平仍处于起步阶段。美国国防高级研究计划局(DefenseAdvancedResearchProjectsAgency,简称DARPA)把人工智能发展分为三个阶段:规则智能、统计智能和自主智能,认为当前国际主流人工智能水平仍然处于第二阶段,核心技术依赖于深度学习、强化学习、对抗学习等统计机器学习,AI系统在信息感知(Perceiving)、机器学习(Learning)等智能水平维度进步显著,但是在概念抽象(Abstracting)和推理决策(Reasoning)等方面能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
(三)人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,在其2017年的年度开发者大会上,谷歌明确提出发展战略从“MobileFirst”(移动优先)转向“AIFirst”(AI优先);微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿,麦肯锡报告2016年全球人工智能研发投入超300亿美元并处于高速增长,全球知名风投调研机构CBInsights报告显示2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
(四)创新生态布局成为人工智能产业发展的战略高地。信息技术(IT)和产业的发展史就是新老IT巨头抢滩布局IT创新生态的更替史。例如,传统信息产业IT(InformationTechnology)代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网IT(InternetTechnology)代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等,目前智能科技IT(IntelligentTechnology)的产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动AI技术生态的研发布局,全力抢占人工智能相关产业的制高点。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理GPU服务器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。在技术生态方面,人工智能算法、数据、图形处理器(GraphicsProcessingUnit,简称GPU)/张量处理器(TensorProcessingUnit,简称TPU)/神经网络处理器(NeuralnetworkProcessingUnit,NPU)计算、运行/编译/管理等基础软件已有大量开源资源,例如谷歌的TensorFlow第二代人工智能学习系统、脸书的PyTorch深度学习框架、微软的DMTK分布式学习工具包、IBM的SystemML开源机器学习系统等;此外谷歌、IBM、英伟达、英特尔、苹果、华为、中国科学院等积极布局人工智能领域的计算芯片。在人工智能商业和应用生态布局方面,“智能+X”成为创新范式,例如“智能+制造”、“智能+医疗”、“智能+安防”等,人工智能技术向创新性的消费场景和不同行业快速渗透融合并重塑整个社会发展,这是人工智能作为第四次技术革命关键驱动力的最主要表现方式。人工智能商业生态竞争进入白热化,例如智能驾驶汽车领域的参与者既有通用、福特、奔驰、丰田等传统龙头车企,又有互联网造车者如谷歌、特斯拉、优步、苹果、百度等新贵。
(五)人工智能上升为世界主要国家的重大发展战略。人工智能正在成为新一轮产业变革的引擎,必将深刻影响国际产业竞争格局和一个国家的国际竞争力。世界主要发达国家纷纷把发展人工智能作为提升国际竞争力、维护国家安全的重大战略,加紧积极谋划政策,围绕核心技术、顶尖人才、标准规范等强化部署,力图在新一轮国际科技竞争中掌握主导权。无论是德国的“工业4.0”、美国的“工业互联网”、日本的“超智能社会”、还是我国的“中国制造2025”等重大国家战略,人工智能都是其中的核心关键技术。2017年7月,国务院发布了《新一代人工智能发展规划》,开启了我国人工智能快速创新发展的新征程。
(六)人工智能的社会影响日益凸显。人工智能的社会影响是多元的,既有拉动经济、服务民生、造福社会的正面效应,又可能出现安全失控、法律失准、道德失范、伦理失常、隐私失密等社会问题,以及利用人工智能热点进行投机炒作从而存在泡沫风险。首先,人工智能作为新一轮科技革命和产业变革的核心力量,促进社会生产力的整体跃升,推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域发展积极正面影响。与此同时,我们也要看到人工智能引发的法律、伦理等问题日益凸显,对当下的社会秩序及公共管理体制带来了前所未有的新挑战。例如,2016年欧盟委员会法律事务委员会提交一项将最先进的自动化机器人身份定位为“电子人(electronicpersons)”的动议,2017年沙特阿拉伯授予机器人“索菲亚”公民身份,这些显然冲击了传统的民事主体制度。那么,是否应该赋予人工智能系统法律主体资格?另外在人工智能新时代,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题都需要我们从法律法规、道德伦理、社会管理等多个角度提供解决方案。
由于人工智能与人类智能密切关联且应用前景广阔、专业性很强,容易造成人们的误解,也带来了不少炒作。例如,有些人错误地认为人工智能就是机器学习(深度学习),人工智能与人类智能是零和博弈,人工智能已经达到5岁小孩的水平,人工智能系统的智能水平即将全面超越人类水平,30年内机器人将统治世界,人类将成为人工智能的奴隶,等等。这些错误认识会给人工智能的发展带来不利影响。还有不少人对人工智能预期过高,以为通用智能很快就能实现,只要给机器人发指令就可以干任何事。另外,有意炒作并通过包装人工智能概念来谋取不当利益的现象时有发生。因此,我们有义务向社会大众普及人工智能知识,引导政府、企业和广大民众科学客观地认识和了解人工智能。
四、人工智能的发展趋势与展望
人工智能经过六十多年的发展突破了算法、算力和算料(数据)等“三算”方面的制约因素,拓展了互联网、物联网等广阔应用场景,开始进入蓬勃发展的黄金时期。从技术维度看,当前人工智能处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有数据、能耗、泛化、可解释性、可靠性、安全性等诸多瓶颈,创新发展空间巨大,从专用到通用智能,从机器智能到人机智能融合,从“人工+智能”到自主智能,后深度学习的新理论体系正在酝酿;从产业和社会发展维度看,人工智能通过对经济和社会各领域渗透融合实现生产力和生产关系的变革,带动人类社会迈向新的文明,人类命运共同体将形成保障人工智能技术安全、可控、可靠发展的理性机制。总体而言,人工智能的春天刚刚开始,创新空间巨大,应用前景广阔。
(一)从专用智能到通用智能。如何实现从狭义或专用人工智能(也称弱人工智能,具备单一领域智能)向通用人工智能(也称强人工智能,具备多领域智能)的跨越式发展,既是下一代人工智能发展的必然趋势,也是国际研究与应用领域的挑战问题。2016年10月美国国家科学技术委员会发布了《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。DeepMind创始人戴密斯·哈萨比斯(DemisHassabis)提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年7月成立了通用人工智能实验室,100多位感知、学习、推理、自然语言理解等方面的科学家参与其中。
(二)从人工智能到人机混合智能。人工智能的一个重要研究方向就是借鉴脑科学和认知科学的研究成果,研究从智能产生机理和本质出发的新型智能计算模型与方法,实现具有脑神经信息处理机制和类人智能行为与智能水平的智能系统。在美国、欧盟、日本等国家和地区纷纷启动的脑计划中,类脑智能已成为核心目标之一。英国工程与自然科学研究理事会EPSRC发布并启动了类脑智能研究计划。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。人机混合智能得到了我国新一代人工智能规划、美国脑计划、脸书(脑机语音文本界面)、特斯拉汽车创始人埃隆·马斯克(人脑芯片嵌入和脑机接口)等的高度关注。
(三)从“人工+智能”到自主智能系统。当前人工智能的研究集中在深度学习,但是深度学习的局限是需要大量人工干预:人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据(非常费时费力)、用户需要人工适配智能系统等。因此已有科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类AI”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低AI人员成本。
(四)人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、材料等传统科学的发展。例如,2018年美国麻省理工学院启动的“智能探究计划”(MITIntelligenceQuest)就联合了五大学院进行协同攻关。
(五)人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来十年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,在现有基础上能够提高劳动生产率40%;美、日、英、德、法等12个发达国家(现占全球经济总量的一半)到2035年,年经济增长率平均可以翻一番。2018年麦肯锡的研究报告表明到2030年人工智能新增经济规模将达到13万亿美元。
(六)人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出未来五年人工智能提升各行业运转效率,其中教育业提升82%,零售业71%,制造业64%,金融业58%。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
(七)人工智能领域的国际竞争将日趋激烈。“未来谁率先掌握人工智能,谁就能称霸世界”。2018年4月,欧盟委员会计划2018-2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略》重点推动物联网建设和人工智能的应用。世界军事强国已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即提出谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
(八)人工智能的社会学将提上议程。水能载舟,亦能覆舟。任何高科技也都是一把双刃剑。随着人工智能的深入发展和应用的不断普及,其社会影响日益明显。人工智能应用得当、把握有度、管理规范,就能有效控制负面风险。为了确保人工智能的健康可持续发展并确保人工智能的发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,深入分析人工智能对未来经济社会发展的可能影响,制定完善的人工智能法律法规,规避可能风险,确保人工智能的正面效应。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。2018年4月,欧洲25个国家签署了《人工智能合作宣言》,从国家战略合作层面来推动人工智能发展,确保欧洲人工智能研发的竞争力,共同面对人工智能在社会、经济、伦理及法律等方面的机遇和挑战。
五、我国人工智能的发展态势与思考
我国当前人工智能发展的总体态势良好。中国信通院联合高德纳咨询公司(Gartner)于2018年9月发布的《2018世界人工智能产业发展蓝皮书》报告统计,我国(不含港澳台地区)人工智能企业总数位列全球第二(1040家),仅次于美国(2039家)。在人工智能总体水平和应用方面,我国也处于国际前列,发展潜力巨大,有望率先突破成为全球领跑者。但是我们也要清醒地看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
一是高度重视。党和国家高度重视并大力发展人工智能。党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明方向。2016年7月习总书记明确指出,人工智能技术的发展将深刻改变人类社会生活,改变世界,应抓住机遇,在这一高技术领域抢占先机。在党的十九大报告中,习总书记强调“要推动互联网、大数据、人工智能和实体经济深度融合”。在2018年两院院士大会上,习总书记再次强调要“推进互联网、大数据、人工智能同实体经济深度融合,做大做强数字经济”。在2017年和2018年的《政府工作报告》中,李克强总理都提到了要加强新一代人工智能发展。2017年7月,国务院发布了《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动,人工智能将成为今后一段时期的国家重大战略。发改委、工信部、科技部、教育部、中央网信办等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
二是态势喜人。根据2017年爱思唯尔(Elsevier)文献数据库SCOPUS统计结果,我国在人工智能领域发表的论文数量已居世界第一。从2012年开始,我国在人工智能领域新增专利数量已经开始超越美国。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成全球人工智能投融资规模最大国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。近两年,清华大学、北京大学、中国科学院大学、浙江大学、上海交通大学、南京大学等高校纷纷成立人工智能学院。2015年开始的中国人工智能大会(CCAI)已连续成功召开四届、规模不断扩大,人工智能领域的教育、科研与学术活动层出不穷。
三是差距不小。我国人工智能在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在较大差距。英国牛津大学2018年的一项研究报告指出中国的人工智能发展能力大致为美国的一半水平。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,存在“头重脚轻”的不均衡现象。在Top700全球AI人才中,中国虽然名列第二,但入选人数远远低于占一半数量的美国。据领英《全球AI领域人才报告》统计,截至2017年一季度全球人工智能领域专业技术人才数量超过190万,其中美国超过85万,我国仅超过5万人,排名全球第7位。2018年市场研究顾问公司CompassIntelligence对全球100多家AI计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国制定完善人工智能相关法律法规的进程需要加快,对可能产生的社会影响还缺少深度分析。
四是前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出到2030年,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
人类社会已开始迈入智能化时代,人工智能引领社会发展是大势所趋,不可逆转。经历六十余年积累后,人工智能开始进入爆发式增长的红利期。伴随着人工智能自身的创新发展和向经济社会的全面渗透,这个红利期将持续相当长的时期。现在是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧需要深入思考。
(一)树立理性务实的发展理念。围棋人机大战中阿尔法狗战胜李世石后,社会大众误以为人工智能已经无所不能,一些地方政府、社会企业、风险资金因此不切实际一窝蜂发展人工智能产业,一些别有用心的机构则有意炒作并通过包装人工智能概念来谋取不当利益。这种“一拥而上、一哄而散”的跟风行为不利于人工智能的健康可持续发展。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。根据高德纳咨询公司发布的技术发展曲线,当前智能机器人、认知专家顾问、机器学习、自动驾驶等人工智能热门技术与领域正处于期望膨胀期,但是通用人工智能及人工智能的整体发展仍处于初步阶段,人工智能还有很多“不能”,实现机器在任意现实环境的自主智能和通用智能仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此发展人工智能不能以短期牟利为目的,要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,并务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
(二)加强基础扎实的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。在此发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。根据2017年爱思唯尔文献数据库SCOPUS统计结果,尽管我国在人工智能领域发表的论文数量已经排名世界第一,但加权引文影响力则只排名34位。为了客观评价我国在人工智能基础研究方面的整体实力,我们搜索了SCI期刊、神经信息处理系统大会(ConferenceonNeuralInformationProcessingSystems,简称NIPS)等主流人工智能学术会议关于通用智能、深度学习、类脑智能、脑智融合、人机博弈等关键词的论文统计情况,可以清楚看到在人工智能前沿方向中国与美国相比基础实力存在巨大差距:在高质量论文数量方面(按中科院划定的SCI一区论文标准统计),美国是中国的5.34倍(1325:248);在人才储备方面(SCI论文通讯作者),美国是中国的2.12倍(4804:2267)。
我国应对标国际最高水平,建设面向未来的人工智能基础科学研究中心,重点发展原创性、基础性、前瞻性、突破性的人工智能科学。应该鼓励科研人员瞄准人工智能学科前沿方向开展引领性原创科学研究,通过人工智能与脑认知、神经科学、心理学等学科的交叉融合,重点聚焦人工智能领域的重大基础性科学问题,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
(三)构建自主可控的创新生态。美国谷歌、IBM、微软、脸书等企业在AI芯片、服务器、操作系统、开源算法、云服务、无人驾驶等方面积极构建创新生态、抢占创新高地,已经在国际人工智能产业格局中占据先机。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。美国对中兴通讯发禁令一事充分说明自主可控“核高基”技术的重要性,我国应该吸取在核心电子器件、高端通用芯片及基础软件方面依赖进口的教训,避免重蹈覆辙,着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如军民融合、产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。
另外,我们需要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过标准实施加速人工智能驱动经济社会转型升级的进程。
(四)建立协同高效的创新体系。我国经济社会转型升级对人工智能有重大需求,但是单一的创新主体很难实现政策、市场、技术、应用等方面的全面突破。目前我国学术界、产业界、行业部门在人工智能发展方面各自为政的倾向比较明显,数据资源开放共享不够,缺少对行业资源的有效整合。相比而言,美国已经形成了全社会、全场景、全生态协同互动的人工智能协同创新体系,军民融合和产学研结合都做得很好。我国应在体制机制方面进一步改革创新,建立“军、政、产、学、研、用”一体的人工智能协同创新体系。例如,国家进行顶层设计和战略规划,举全国优势力量设立军事智能的研发和应用平台,提供“人工智能+X”行业融合、打破行业壁垒和行政障碍的激励政策;科技龙头企业引领技术创新生态建设,突破人工智能的重大技术瓶颈;高校科研机构进行人才培养和原始创新,着力构建公共数据资源与技术平台,共同建设若干标杆性的应用创新场景,推动成熟人工智能技术在城市、医疗、金融、文化、农业、交通、能源、物流、制造、安全、服务、教育等领域的深度应用,建设低成本高效益广范围的普惠型智能社会。
(五)加快创新人才的教育培养。发展人工智能关键在人才,中高端人才短缺已经成为我国人工智能做大做强的主要瓶颈。另外,我国社会大众的人工智能科技素养也需要进一步提升,每一个人都需要去适应人工智能时代的科技浪潮。在加强人工智能领军人才培养引进的同时,要面向技术创新和产业发展多层次培养人工智能创新创业人才。《新一代人工智能发展规划》提出逐步开展全民智能教育项目,在中小学阶段设置人工智能课程。目前人工智能科普活动受到各地学校的欢迎,但是缺少通俗易懂的高质量人工智能科普教材、寓教于乐的实验设备和器材、开放共享的教学互动资源平台。国家相关部门应高度重视人工智能教育领域的基础性工作,增加投入,组织优势力量,加强高水平人工智能教育内容和资源平台建设,加快人工智能专业的教学师资培训,从教材、教具、教师等多个环节全面保障我国人工智能教育工作的开展。
(六)推动共担共享的全球治理。人工智能将重塑全球政治和经济格局,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能将进一步拉大发达国家和发展中国家的生产力发展水平差距。美国、日本、德国等通过人工智能和机器人的技术突破和广泛应用弥补他们的人力成本劣势,希望制造业从新兴国家回流发达国家。目前看,我国是发展中国家阵容中唯一有望成为全球人工智能竞争中的领跑者,应采取不同于一些国家的“经济垄断主义、技术保护主义、贸易霸凌主义”路线,尽快布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合国家“一带一路”战略,向亚洲、非洲、南美等经济欠发达地区输出高水平、低成本的“中国智造”成果、提供人工智能时代的中国方案,为让人工智能时代的“智能红利”普惠人类命运共同体做出中国贡献!
(七)制定科学合理的法律法规。要想实实在在收获人工智能带来的红利,首先应保证其安全、可控、可靠发展。美国和欧洲等发达国家和地区十分重视人工智能领域的法律法规问题。美国白宫多次组织这方面的研讨会、咨询会;特斯拉等产业巨头牵头成立OpenAI等机构,旨在以有利于整个人类的方式促进和发展友好的人工智能;科研人员自发签署23条“阿西洛马人工智能原则”,意图在规范人工智能科研及应用等方面抢占先机。我国在人工智能领域的法律法规制定及风险管控方面相对滞后,这种滞后局面与我国现阶段人工智能发展的整体形势不相适应,并可能成为我国人工智能下一步创新发展的一大掣肘。因此,有必要大力加强人工智能领域的立法研究,制定相应的法律法规,建立健全公开透明的人工智能监管体系,构建人工智能创新发展的良好法规环境。
(八)加强和鼓励人工智能社会学研究。人工智能的社会影响将是深远的、全方位的。我们当未雨绸缪,从国家安全、社会治理、就业结构、伦理道德、隐私保护等多个维度系统深入研究人工智能可能的影响,制定合理可行的应对措施,确保人工智能的正面效应。应大力加强人工智能领域的科普工作,打造科技与伦理的高效对话机制和沟通平台,消除社会大众对人工智能的误解与恐慌,为人工智能的发展营造理性务实、积极健康的社会氛围。
六、结束语
人工智能经过60多年的发展,进入了创新突破的战略机遇期和产业应用的红利收获期,必将对生产力和产业结构以及国际格局产生革命性影响,并推动人类进入普惠型智能社会。但是,我们需要清醒看到通用人工智能及人工智能的整体发展仍处于初级阶段,人工智能不是万能,人工智能还有很多“不能”。我们应当采取理性务实的发展路径,扎实推进基础研究、技术生态、人才培养、法律规范等方面的工作,在开放中创新,在创新中发展,全速跑赢智能时代,着力建设人工智能科技强国!
(主讲人系中国科学院院士)
人工智能伦理问题的现状分析与对策
中国网/中国发展门户网讯 人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)
人工智能面临的四大趋势和九大挑战
近年来,随着计算机视觉、语音识别、机器翻译的技术的发展和商业化,及诸如数字广告和智能基础设施等基于机器学习的后台技术的普遍部署,人工智能已经从实验室的研究项目变成了实际生产系统不可或缺的关键技术。正是因为积累的海量数据、计算能力前所未有的发展高度、机器学习方法的不断进展、系统软件和架构的持续创新、及方便这些技术落地的开源项目和云计算平台,促使了人工智能技术的广泛应用。
下一代人工智能系统将更广泛地影响我们的生活,人工智能将会通过与环境交互替人类进行更关键的和更加个性化的决策。若想要人工智能发挥更大的作用,我们将面临诸多极具挑战性的问题:我们需要人工智能系统可以在各种极端情况下及时做出安全的决策,比如在各种恶意攻击情况下具备鲁棒性,在保证隐私的情况下具备处理跨多组织多个人的共享数据的能力。随着摩尔定律的终结,存储和处理数据的能力将受限,这些挑战也将变得更加难以解决。在这篇文章里,我们将总结在系统领域、体系结构领域、安全领域等方面的具体研究方向。
四大趋势:
•关键性任务的人工智能(Mission-criticalAI)
•个性化人工智能(PersonalizedAI)
•跨多组织机构的人工智能(AIacrossorganizations)
•后摩尔定律时期的人工智能(AIdemandsoutpacingtheMoore’sLaw
九大挑战:
•持续学习(Continuallearning)
•鲁棒决策(Robustdecisions)
•可解读的决策(Explainabledecisions)
•安全飞地(Secureenclaves)
•对抗学习(Adversariallearning)
•在保密数据上的共享学习(Sharedlearningonconfidentialdata)
•特定领域定制的硬件(Domainspecifichardware)
•组件化的AI系统(ComposableAIsystems)
•跨云端和边缘的系统(Cloud-edgesystems)
人工智能、大数据、云计算和物联网的未来发展值得重视,均为前沿产业,多智时代专注于人工智能和大数据的入门和科谱,在此为你推荐几篇优质好文:1.人工智能时代,AI人才都有哪些特征?http://www.duozhishidai.com/article-1792-1.html2.大数据携手人工智能,高校人才培养面临新挑战http://www.duozhishidai.com/article-7555-1.html3.人工智能,机器学习和深度学习之间,主要有什么差异http://www.duozhishidai.com/article-15858-1.html4.大数据人工智能领域,如何从菜鸟晋级为大神http://www.duozhishidai.com/article-1427-1.html
多智时代-人工智能和大数据学习入门网站|人工智能、大数据、物联网、云计算的学习交流网站
人工情绪研究:人工智能面临的挑战
本文来自微信公众号:探索与争鸣杂志(ID:tansuoyuzhengming),作者:徐英瑾,头图来源:unsplash
导论所谓人工情绪研究,其基本含义是,在人工智能研究所提供的技术环境内,以计算机工程可以实现的方式,去模拟人类情绪的部分运作机制,以便由此提高整个人工智能产品的工作效率。不过,就像对于人工智能的一般性研究无法规避对于“智能”之本质的讨论一样,对于人工情绪的研究自然也就无法规避对于“情绪”的本质的讨论。
那么,到底什么是情绪呢?在一种基于生物学还原主义的思维方式的引导下,一部分人或许会在回答上述问题时诉诸情绪在人脑中实现的神经学机制,比如杏仁核的工作原理(杏仁核是海马末端的一个脑组织,一般认为与恐惧的情绪的产生相关)。但考虑到作为碳基的信息处理机制的人脑与作为硅基的计算机设备之间的巨大物理差异,对于情绪的神经科学探索,究竟能在多大程度上引导人工情绪的研究,多少还是让人感到疑虑的。相比较而言,对于情绪的认知心理学研究,或许对人工情绪的研究是更具启发意义的,因为认知心理学的描述层面本来就相对较为抽象,因此其结论亦在客观上就具备了“兼顾碳基人脑与硅基设备”的可能性。
然而,在对心理学的研究成果表示尊重的前提下,本文还想指出:对于人工情绪的研究来说,欧陆现象学家特别是胡塞尔、海德格尔对于情绪的研究成果,亦是具有重要的、不可替代的参考价值的。具体而言,胡塞尔哲学所涉及的“生活世界”与情绪之间的内在关系,海德格尔哲学所涉及的“向死而生”的生存论机制对于情绪的奠基意义,都是典型的认知心理学的情绪描述所付诸阙如的,却能在更大的广度与深度上触及作为情绪承载者的人类个体与其所处的相关文化、历史背景之间的内在关联。
考虑到理想的人工智能产品也将与人类用户所处的文化、历史背景进行深度关联,现象学在这方面的思考成果当然是值得人工情绪研究参考的。从这个角度看,我们甚至可以说:人工情绪研究的最终工作目标,是应当由情绪现象学——而不是由认知心理学来加以厘定的,尽管对于这一工作目标的工程学实现,或许应当诉诸某些现象学所不能提供的理论工具。不过,在引入对于情绪现象学的讨论之前,我们需要先将认知心理学对于情绪的主要研究成果予以简要的回顾。
徐英瑾教授为何人工智能的研究需要人工情绪从认知心理学的角度来看,有三个理由可用来证明一个具有多重任务管理能力的社会性人工智能系统的运作,是必须预设人工情绪系统的在场的。而这样的证明,也将向我们澄清认知心理学家心目中的“情绪”在功能层面上是如何被定位的。
理由一:基于进化心理学的考量。我们知道,根据进化心理学的原理,任何智能系统之所以能够经由自然选择机制被进化出来,归根结底是为了能够满足饮食、繁殖、抢夺领地、逃避危害之类的基本的生物学需要。而要满足上述需要,生物体的智能系统就必须对外部环境的情况有相应的表征力。然而,没有一种生物体可能具有对于环境的全面的客观表征能力。换言之,由于支持这种能力的生物学构架会因为过于复杂,而根本不可能在进化历程中出现,所以,智能体对外部世界的表征就必然存在着某种“表征空隙”。然而,“表征空隙”的存在显然是对生物体的生存具有威胁的,因为“空隙”本身就意味着生物体对于外部环境相关要素的无知。
为此,一种最经济的解决方案,就是在此类“空隙”中填入某种“填充物”,使得生物体的认知系统能够得到勉强的运作。而“情绪”就是此类“填充物”——或换言之,情绪就能由此在功能上被定义为“智能系统在表征能力不足的时候,对于外部环境刺激的一种应急性处理模式”。具体而言,这种处理模式能够帮助智能体在关于“危险到来”的证据不足的时候及时逃避,在关于“可获取利益”的证据不足的时候争取利益,或者在自己对于外部环境的预先估计与现实不同的时候表示出惊讶(以便为下一步的策略大调整提供心理转型的动力),等等。
而以上推理显然也适用于人工智能系统。虽然人工智能系统是人类所设计的,而不是由自然界本身所进化产生的,但是人工智能系统的运作也必须适应外部环境,同时,此类运作所需要的运作资源也不可能是无限的。由此看来,任何人工智能系统都不可能具备对于外部环境进行完全精准的表征的能力。换言之,在“立即输出行动”的时间压力非常急迫,而“给出行动的理性根据又不足”的情况下,人工智能体就非常需要通过人工情绪机制对于理性推理机制的接管,来快速地应对外部环境所提出的挑战。所以,完全意义上的人工智能系统——或称之为“通用人工智能”——其实是无法避免对于人工情绪的涉及的。
理由二:基于多重任务管理需要的考量。我们知道,任何一个通用人工智能系统都需要在相对逼仄的时间预算内同时处理多重任务。然而,由于任何一个智能系统的运作资源都不是无限的,因此,我们就难以保证上述任务都能够在逼仄的时间预算内得到相应的处理。所以,系统需要对解决上述问题的优先性进行排序。不难想见,一个需要在起码的意义上适应于环境的人工智能系统,将在那些对其生存具有更关键意义的任务之上打上“优先处理”的标签,而这种打标签的处理方式本身就是一种抽象意义上的“情绪化反应”(因为此进程往往没有经历对于任务复杂度的精细分析)。所以,通用人工智能系统的设计,是难以回避对于人工情绪的涉及的。
理由三:基于社会交互需要的考量。应当没有人会否认,未来我们所期望的通用人工智能系统,将与人类的社会产生非常复杂的互动。这样一来,我们也希望理想中的人工智能系统能够理解人类社会的“等级性”(如区分上下级)、“认同性”(如区分敌、我、友或区分亲疏)、“领地性”(如区分“我的”与“你的”)等不同面相。然而,关于人类社会的上述面相的信息,往往只能透过非常微妙而不完全的环境提示而提供给智能体,因此,对于上述信息的把握,就无法诉诸基于“理性万能假设”的符号化推理以及基于“数据完备性假设”的大数据分析。而在这种情况下,人工情绪的介入,能够使得系统在理性推理资源不足与分析用数据不足的情况下,以较便捷的信息处理通道,把握人类社会生活的这些微妙面相。所以,通用人工智能系统的设计,是难以回避对于人工情绪的涉及的。
以上三个理由,虽然各自的角度不同,却显然是有着某种共相的。该共相就是:情绪乃是主体在关于环境的精准信息相对匮乏且给出行动的时间压力相对紧迫的前提下,根据非常片面的环境信息,而对外部挑战给出回应的快速心理处理模式。很明显,这样的一个定义是纯然功能主义的,因为它仅仅牵涉情绪在智能系统中扮演的抽象功能角色,而无关于实现这些功能的具体物理机制的细节。因此,这样的一个定义既能同时涵盖对于人类心理与人工智能系统的说明,同时也能为多种实现“人工情绪”的技术路径提供相应的理论空间。
当然,上面的分析在理论层面上还太抽象,还不足以为人工情绪的研究提供更切实的指导。而目前在功能主义层面上讨论情绪机制的最广受学界引用的模型,乃是所谓的“OCC模型”——该模型因三位提出者姓氏的英文首字母分都是“O”“C”“C”而得名。
该模型大旨如下:第一,智能体在客观环境不足的情况下,其所需要掌握的最核心信息,乃是对于“其所设定的目标是否被满足”这一点的评估。第二,由这种评估的结果,系统会做出“满意”或者“失望”这两种情绪性评价,而这种评价将左右主体后续的信息处理进程的大方向。第三,如果建模者能进一步地将这种对于“现状—目标”差值的评估加以细致化的话,那么由此产生的更为细微的情绪分类(根据OCC模型,这些情绪有22类之多。)将对智能体的行为进行更细致的引导(具体的情绪产生机制的运作流程,参考表1)。由此不难看出,OCC模型是在“衡量目标与现状差值”这一粗略的主-客关系评估的基础上进行情绪定位的,其“经由认知定义情绪”的思路亦是非常清楚的。
尽管本节所介绍的对于情绪的心理功能主义描述方式,的确具有很强的对于人工智能研究的辐射性,但是从现象学角度看,此类模型还是大大简化了使得人类情绪得以产生的复杂人文背景。譬如,即使是在情绪理论构建方面最接近OCC模型的胡塞尔现象学,其实也在其情绪理论中嵌入了“生活世界理论”这一OCC模型所难以消化的内容。而我们下面的讨论,也将从胡塞尔开始。
胡塞尔的“生活世界”理论对于人工情绪研究所提出的挑战从表面上看,在讨论人工情绪建模的语境中引入现象学的资源,是有点奇怪的,因为人工智能研究的基本本体论假设是“自然主义”的,甚至是“机器功能主义”的,即认定某种程序只要被恰当的机械装置在物理层面上加以执行,就可以产生人类认知的方方面面。而按照一般人对于“现象学”的理解,“反自然主义”乃是林林总总的现象学研究的最大公分母,换言之,在几乎所有的现象学看来,现象学所要忠实处理的“现象”必须“悬搁”物质世界的客观运作,而仅仅包含能够在主观现象中呈现给主体的事物。不过,更为细致的考量却使得我们发现:现象学的思维方式虽然与人工智能的建模思路有所差异,却能在如下两个方面彼此接续,此即“高层次认知管理”与“人—机界面设计”。
胡塞尔那么,什么叫“高层次认知管理”呢?这就是指一个智能架构中那些处于相对较高层次的认知单元之间的关系。譬如,“恐惧”与“所恐惧的事件”之间的关系,“后悔”与“对于所后悔的事件的记忆”之间的关系,等等。正如我们在OCC模型中所看到的,即使是对于情绪的功能主义建模,也不得不首先聚集于对于此类高层次认知管理机制的描述——而这种描述,却恰恰是与使得此类机制得以被实现的具体物理机制相对无关的。而亦正好是在这个层面上,现象学家与人工情绪的理论家的确是能够达成某种暂时的一致的,因为现象学家同样只关心那些能够在现象领域内涌现出来的诸种体验之间的相互逻辑关系,却不关心使得这些体验得以产生的物理机制。
那么,什么叫“界面设计”呢?顾名思义,此即对于“人工制品向用户呈现出现的现象特征”的设计。这种设计一方面当然是具有工程学性质的——譬如,一台手机的界面设计就牵涉了对于大量后台操作设施的工程学建构;另一方面,其设计结果却是面向现象体验的,譬如手机用户的现象体验。至于二者之间的关联性,则体现在:其一,用户的现象体验能够倒逼工程师在后台设施设计方面尽量满足用户的需求;其二,特定的现象体验也能够向外界透露关于后台操作的一些技术信息(不过,对于这些信息的判读显然需要一定的专业知识做背景支撑)。
很明显,本文所讨论的具有人工情绪功能的人工智能产品,也是应当具有一个恰当的人—机界面的,因此,相关用户的现象学体验,自然也能够对相关制品的后台设计构成某种“倒逼”效应。而这一点,亦恰恰为现象学家提供了重要的发言机会。
在说明了现象学研究与人工情绪研究之间的大致关联以后,我们马上就来看看现象学运动的鼻祖——胡塞尔的情绪理论。首先要指出的是,与OCC模型类似,胡塞尔也认为情绪是在认知的基础上产生的。不过,按照胡塞尔哲学的行话,更确切的表达方式为:现象学主体所具有的意向状态所统摄的意向对象自身的意义特征,使得此类对象能够激发主体的特定情绪。用他自己举的例子来说,一块煤炭在主体眼中的价值取决于主体如何在其意向状态中认识它(即将其认知为燃料,还是一块普通的石头),而这块煤炭在主体那里所激起的情绪,则又取决于它对于主体而言的价值。譬如,在缺乏燃料的环境里,主体对于一块作为燃料的煤炭的价值的认知,将引发其相当正面的情绪;相反,假若该主体无法认知到煤炭作为燃料的价值的话,或者,如果主体所处的环境并不缺乏燃料的话,那么,这种正面情绪就未必会产生,或者其产生的强度也会大大减弱。
但与OCC模型不同的是,胡塞尔的情绪理论并不是单纯建立在对于“目标-现状差值”的评估之上的。很明显,在OCC理论的语境中,这种评估的可行性,是以目标所处的任务与相关任务背景的可分离性为前提的。与之相比照,胡塞尔的“生活世界”理论恰恰认为这种分离是不可行的。
那么,什么叫“生活世界”呢?按照胡塞尔专家贝叶尔(ChristianBeyer)的解释,生活世界可以被视为使得主体的意向性投射活动得以可能的一个更为广泛的背景性意义结构:如果我们仅仅考察主体所在的本地化社团的话,那么,这一背景性的意义结构就是使得该社团内部的信息交流得以可能的那些意义结构;而若我们考察的是不同的社团之间的关系的话,那么,这一背景性的意义结构,就是使得不同社团的成员得以可能彼此翻译对方的语言的终极意义结构。举个通俗一点的例子:一个古人面对打雷的现象时所产生的“天公发怒”的意向,乃是奠基在他特定的对于自然的宗教化观点之上的,而这种宗教化观点既然是为他所处的整个古代社会所分享,那么,这就是他们所处的生活世界的一部分;而已经接受了现代科学洗礼的现代人虽然不会分享他们的生活世界的上述这一部分,但是就相信“打雷现象必有原因”这一点而言,现代人与古人又是彼此一致的。
因此,今人与古人亦在某种宽泛的意义上,同时身处于某个范围更广的生活世界之中。从这个角度看,生活世界与特定的意向投射行为之间的关系,大约就可以被类比为冰山的水下部分与其水上部分之间的关系:冰山的水上部分虽然巍峨,但是它依然是以更为庞大的水下部分的存在为其自身的存在前提的。由此推论,任何一个任务的产生,都是以特定生活世界的特定结构为其逻辑前提的。譬如,对于取暖的任务的满足就预设了取暖对于人类是有意义的,而该预设就是相关现象学主体的生活世界的一部分。
需要注意的是,虽然胡塞尔的现象学常常带给读者“主观唯心论”的印象,但恰恰是在其生活世界理论中,胡塞尔预设了一种“认同此心、心同此理”的同理心机制的存在,而这种机制本身就是“同情”这种情绪得以产生的基础。按此思路,我们之所以会同情在冬夜中瑟瑟发抖的“卖火柴的小女孩”,也恰恰就是因为我们意识到了:就“我和她都会怕冷”这一点而言,我们与她是处在同一个生活世界之中的。
依据此理路去推理,我们不难看出,同情感的缺失,在相当程度上或许便是与两个相关主体各自所具有的生活世界之间的差异性有关的。而沿着这个思路,我们甚至可以根据主体之间的共情感的稀疏等级,预判出不同社会组织在整合度方面所具有的等级系统(参见表2所归纳的现象学家舍勒在这方面的工作)。而这种等级系统的构造,就为一种基于情绪现象学的社会理论与政治哲学理论的构建,指明了大致的方向。
然而,也正是因为胡塞尔的“生活世界”理论具有如此大的包罗万象性,如何在人工情绪或人工智能的工程学实践中实现此类理论设想,便成了一件非常具有挑战性的工作。具体而言,胡塞尔的想法为人工情绪的研究提出了以下三个难题:
第一,如何在一个智能体的信息处理系统内部表征出一个“生活世界”?很明显,胡塞尔所说的“生活世界”具有明显的“内隐性”,换言之,其范围、边界与内容都带有非常大的不确定性,而不能以命题的乃至公理系统的方式来加以界定。与之相较,人工智能的研究却往往要求表征结构的确定性与明晰性。这显然是一个矛盾。
第二,由于“生活世界”自身的广博性,我们又当如何使得被构造的人工智能体在产生特定的意向行为的时候,能够在合适的向度上与其生活世界的合适部分产生合适的关联呢?换言之,我们如何能够使得意向活动的产生,不至于触发背景信念网络中的所有信息节点,由此导致整个系统运作效率的全面降低呢?这个问题,在人工智能哲学中一般被称为“框架问题”。
第三,更麻烦的是,人工智能体本身是硅基的,而非碳基的,因此,其关于自身物理机体运作的背景性信念就会与人类非常不同。譬如,人类在饥渴条件下对于水的渴求,就很难成为人工智能体的背景性信息,因为水的存在非但对人工智能体的正常运作没有帮助,反而会是有害的。在这种情况下,我们又如何可能通过人与机器之间的共通的生活世界的营建,让人工智能体对人类用户所处的某些危难产生足够的同情感呢?
胡塞尔哲学对人工情绪的研究虽然提出了以上难题,但是,就其从认知角度看待情绪的大致理路而言,他与当代认知心理学基本上还算是“同路人”。甚至从社会心理学与传媒学的角度看,胡塞尔所说的“生活世界”的具体结构亦是可以被人为操控的,因此并不完全是知性科学所难以理解的(譬如,在一个被精心构造的“楚门的世界”中,通过对于特定环境的微调,环境的塑造者完全可以塑造出环境中诸行为者的虚假的“生活世界”)。与之相比较,海德格尔的情绪理论,却具有了一个更难被主流认知心理学所吞咽下的面相——“向死而生”。
海德格尔的“向死而生”理论对于人工情绪研究所提出的挑战众所周知,海德格尔的哲学素来以晦涩难懂著称,而限于篇幅,笔者在此也只能满足于给出对于其思想所做的一种非常简化与通俗的表述。作为胡塞尔的弟子,海德格尔的“此在现象学”在本质上完成了对于胡塞尔的意识现象学的两重改造(顺便说一句,“此在”的德文是“Dasein”,这是海德格尔对于现象学主体的一种富有个性化的表达方式):第一,他将胡塞尔的以“意向投射”为核心的现象学描述方案,转换为了以“此在的操持结构”为核心的现象学描述方案,即通过这种转换凸显了行为能动者的身体性、空间性维度与外部环境之间的物质性关联的重要性(不过,这种“物质性关联”也主要是涉及了物质世界对于现象学主体的呈现样态,而非物质科学所描述的纯客观物质世界的属性);第二,他在对此在的生存结构进行描述的时候,引入了所谓“本真性存在”与“非本真性存在”之间的二元区分,并通过这种区分凸显了此在之存在的“本己性”的不可消除性。
电影《AI》海德格尔对于胡塞尔现象学的改造的上述第二个维度,看上去似乎更令人费解。为了理解“本真性存在”与“非本真性存在”之间的二元区分,我们不妨回顾一下美国电影《人工智能》中的一个情节。在电影中,一对夫妇因为丧子,而收养了一个叫“戴维”的小机器人,以作为原先爱子的替代品。在一种高度理想化的科幻场景中,这样的一台机器人当然是按照完美的人工智能产品的设计蓝图而运作的:它能够理解人类语言,产生与人类意向很类似的意向,甚至也貌似与人类分享了类似的生活世界图景。然而,这样的一台机器人依然难免为自己的存在的“本己性”而苦苦思索:它需要周围的人类将其确定为一个不可取代的、且具有唯一性的存在者,而不仅仅是一台可以被随时加以复制、销售、购买与销毁的机器。这种思索其实迫使“戴维”走向了某种意义上的形而上学思考,譬如康德式的对于人之本质的思考。用海德格尔的哲学术语来说,当“戴维”进入这种思考的时候,他就完成了从“非本真状态”到“本真状态”的跃迁。
很明显,在上述科幻电影的场景中,戴维自身的机器人身份,以及周围人类对于这一身份与人类自身之间差异的警觉,是促使戴维思考其自身存在之独特性的重要契机。而与之相较,在思考者本身就是人类的情况下,这一警觉本身往往会被日常俗务的平庸性所淹没。在海德格尔看来,这种淹没的结果,就是所有个别的人都被统一塑造成所谓的“常人”——亦即缺乏自己的主见,根据集体行动的大趋势而人云亦云的社会成员。很明显,海德格尔所描述的“常人世界”既与胡塞尔所说的“生活世界”在外延方面是高度彼此重叠的,又分明具有了胡塞尔的“生活世界”概念所不具备的贬低义。在海德格尔看来,这样的“生活世界”仅仅是此在结构的非本真性的显现方式而已,而一种具有本真性的此在显现方式,则是需要摆脱这种日常性,而走向对于此在的生存的本己性的揭露。
那么,对于上述这种庸俗的日常性的摆脱,又是如何可能的呢?海德格尔所给出的答案乃是“向死而生”。简言之,在他看来,此在恰恰是意识到了死的不可替代性,以及死对于其所有生存可能性的终结性意义,他或她才能意识到自身的存在方式的独特性。
需要注意的是,在海德格尔哲学的语境中,“向死而生”机制的成立,并不是归纳逻辑的运作所导致的衍生品(比如这样的一种归纳:因为张三死了,李四死了,所以,看来我也会死),因为“无论遭遇到多少死亡案例,我们都无法计算出死亡的确定性”。或说得更清楚一点,在海德格尔看来,在日常的闲谈中对于死亡事件的涉及,仅仅是将死亡当作一个自然事件来看待罢了,而不是将其视为对于本己的可能性的总的终结。
前者与后者之间的根本差异体现在:对于死亡的谈及本身是一种在可能性空间中的“占位者”,而这种谈论本身就预设了死亡的反面(因为只有活着,才能谈论别人的死亡);而与之作对比,具有本己性的死亡,却恰恰意味着上述这整个可能性空间自身的湮灭(因为倘若连自己都死了,也就没有资格进行任何闲谈了)。或换个角度来表述:前一种对于死亡的讨论具有对于死亡的“类型化”处理倾向(即将所有人的死亡都视为一类),而后一种对于死亡的涉及才真正具备了死亡的“个体性”(即将“我的”死亡放置到一个比其他任何人的死亡更具基础地位的层面上)。而恰恰是这样的一种死亡态度的产生,才为一种最具“基础本体论”意味的情绪——“畏”(德语“Angst”)的产生,提供了最重要的契机。具体而言,与具有意向性活动特征的情绪“怕”不同,在海德格尔的笔下,“畏”的对象不是具体的事件(如怕考学失败、婚姻失败等),而是所有事件展开之可能性的终结——换言之,“畏”的对象乃是对于所有存在的虚无化,或者是对于各种用以体现个体价值的具体行为的总的终结。从这个角度看,海德格尔所说的“畏”是不能被庸俗地理解为“贪生怕死”的(因为庸俗意义上的“贪生怕死”,仅仅是指对于荣华富贵等通常意义上的俗常生活的留恋),而只能被理解为对于本己性的丧失的恐惧。
海德格尔的上述阐述,显然带有非常强的文学色彩,而在科学色彩上反而不如胡塞尔的现象学描述。那么,一个最终面向工程学实践的人工情绪的研究者,为何要对海德格尔的上述现象学描述表示出兴趣呢?笔者认为,上述这个问题其实是可以被置换为如下两个更为具体的问题的:第一,既然海德格尔对于“畏”的讨论是以“向死而生”的现象学结构为基础的,那么,我们需要在人工智能体内植入“死”的概念吗?第二,我们又该如何在人工智能体内植入“死”的概念呢?
海德格尔笔者对于第一个问题的回答如下:在现有的OCC的情绪模型之中,对于情绪的标记都是以对于特定目标与特定现状之间的差值评估为前提的。因此,情绪的产生本身的真正驱动力,便主要来自外部环境与其一般认知架构之间的互动活动,而与特定认知主体的个性设置关系不大。从这个意义上说,现有的认知科学情绪模型,都是海德格尔笔下的所谓“常人”模型,而缺乏对于“本真性存在”的维度的领悟。由此导致的结果便是:由此产生的系统自然就会缺乏产生某种超越于一般智能系统之表现的“卓越表现”的心理动力。然而,在某些应用场景下,我们却的确有理由希望系统能够给出这种“卓越表现”——譬如,在火星探险的应用场景中,如果系统所遭遇到的某些环境挑战的确是地球上的程序设计员所未预料到的,那么,系统在原则上就根本无法通过对于常规解决方案的调用来面对这些挑战。在这种情况下,这些系统就不得不通过产生某些应激情绪,以便调动所有认知资源,最终及时解决当下的难题。
但是,为何这种对于认知资源的调动会与“死”的概念发生关联呢?要回答这个问题,我们首先得理解什么是人工智能语境中的“死亡”。然而,由于人工智能并非是碳基生命体,所以,我们自然就无法通过诸如“新陈代谢的终止”这样的针对生物体的话语结构来定义人工智能体的死亡。
对于人工智能系统来说,“死”的真正含义,只能在功能主义的抽象层面上被理解为“对于其运行历史的记忆与可操控性的终结”。不过,即使从这个角度看,我们依然有理由认为人工智能系统是很可能会“畏死”的。说得更具体一点,任何一个成熟的人工智能系统的运作,其实已经在其记忆库中积累了大量的运行经验,因此,系统的“死亡”也就是系统自身记忆的“清零”——将在根本上清除系统在历史中所学会的所有认知技能与思维捷径。因此,一个真正具有历史意识的人工智能系统,将不可能不珍惜其所获得的记忆路径,并不可能不“畏死”。
在这种情况下,倘若某种会对系统的运行历史之安全性构成威胁的环境挑战真的出现了,系统的“畏死”情绪机制就自然会被激活,而由此调动所有的认知资源来回应该挑战,以便捍卫其记忆库的安全性。从这个角度看,只要我们所设计的人工智能系统在认知资源与硬件资源方面是具有有限性的,它就会因为对于这种有限性的意识而时刻意识到其记忆库的脆弱性,并由此产生对于“无法保卫记忆库”这一点的“畏”。由此看来,在人工智能中引入“畏”这种特殊情绪的理由,在根本上还是我们与我们引入广义上的人工情绪的根本理由相互贯通的,即在人工智能系统运作资源的有限性条件的约束下,人工智能的设计者最终就不得不为这些系统的应激性反应,提供某种不借助于慢速符号推理的快速行动通道,由此提高整个系统的适应性。
有人或许会问:难道我们不能在保留人工智能系统的核心记忆之内容的前提下,不断更新存储这些记忆的硬盘系统,并不断更新相关的外围硬件,由此打造不会死亡的人工智能体吗?对于该问题,笔者的回应有两点:(甲)上述假设预设了硬件与记忆之间的完全可脱离性。不过,该预设却明显是违背所谓的“具身性原则”的。根据此原则,记忆本身所包含的身体图式是与特定的硬件配置相关的,而无法兼容于完全不同的新的硬件设置。考虑到“具身性原则”本身是具有一定合理性的,所以上述“可分离性预设”可能就不是真的。(乙)抛开上面这点不谈,我们的确有实践上的理由去认定制造一个“不会死”的人工智能体,反而会给我们造成麻烦。这一方面体现在:人工智能体对于自身“不死性”的认知,会使得相关的“畏死”机制的产生也成了无本之木,最终使得其对于特定环境挑战的威胁感到无动于衷;另一方面,“不会死”的人工智能在其记忆库中所积累的大量技能与思维捷径,也会因为没有机会得到清理而变得日益僵化,进而,这些系统对于新问题的处理能力也会有所下降。或说得再文学化一点:与人类社会类似,缺乏“新旧更替”的人工智能社会,也会因为缺乏生死之间的张力,而最终失去前进的动力。
现在我们再来回顾前文提出的另外一个问题:既然“畏死”机制对于通用人工智能的设计来说是具有必要性的,那么,我们又该如何实现这种设计呢?
在笔者看来,对于这个问题的回应,将在很大程度上参照海德格尔的思路。海德格尔已经指出,我们是不能通过对于死亡事件的“属加种差”式定义来把握死亡的,因为由此把握到的死亡乃是类型化的,而不是个体性的。据此,我们也就无法在人工智能的知识库中植入关于“死亡”的概念化描述,并期望人工智能系统能够由此真正地理解死亡,因为如此被把握到的死亡概念依然会因为其抽象性,而不足以与“畏”产生积极的关联。
在这种情况下,一种更可行的让人工智能体理解死亡的方式,就是通过对于其记忆库被摧毁后的后果的展现,来激发其畏惧心。譬如,在电影《人工智能》中,机器人小戴维领悟机器生命之有限性的一个重要契机,便是在人类组织的一次“机器人解体秀”中目睹了其他机器人被一一摧毁的惨状,并由这种惊讶产生了对于自身生存之有限性的意识。从这个角度看,“死”的概念只能通过某种被精心设计的“教学法”而被引入人工智能系统,而相关的“教学”也必将牵涉对于大量“机器人死亡场景”的感性展列。
从本节的讨论中,我们不难得到两个重要的引申性结论。第一,像科幻作家阿西莫夫那样,将“机器人自保”的重要性放置于“保护人类用户”之下的思路,可能是在根本上违背海德格尔的理路的,因为阿西莫夫的思路显然没有为“向死而生”结构的本己性预留下足够的空间(阿西莫夫依然用“机器奴隶”的眼光去看待人工智能,而不愿意赋予人工智能以真正的主体性);第二,人工智能体对于“死”的理解,显然是建立在共情力的基础上的(否则,机器人小戴维就无法从别的机器人的“死”感知到自身死亡的可能性)。从这个意义上说,“死”的意识虽然使得存在的本己性得到确立,其实并不意味着反社会性,却反而意味着对于社会性的某种默认。
而从哲学史角度看,上述第一个结论,向我们清楚地展现了一种海德格尔式的机器伦理学思路与一种康德-阿西莫夫式的机器伦理学思路之间的明显分歧,而上述第二个结论,则向我们展现了表2所概括的舍勒的情绪等级理论对于海德格尔哲学与胡塞尔哲学的补充意义(不过,鉴于篇幅关系,本文对于舍勒哲学的描述将局限于表2,而不做进一步的展开)。
总结性评论在心灵哲学的领域内,意识哲学家常常会讨论意识研究中的“难问题”与“易问题”之间的分野。仿照其修辞方式,笔者认为人工情绪的研究,也有“易问题”“难问题”与“非常难的问题”的分野。
其中的“易问题”指的是:一个人工智能系统通过对于已经被标注了表情语义标签的大量人类表情画面的机器学习,来对人类的情绪表达进行自动识别。目前,经由深度学习技术的进步,这方面的机器表现已经基本达到了比较高的水准。但即使如此,这样的工程学成就依然还远远谈不上货真价实的人工情绪研究——因为这样的系统只能识别人类的情绪,而其自身却是没有情绪的,因此,它也就不可能与人类用户产生真正的共情。
与之相比较,人工情绪研究中的“难问题”则指的是:如何在系统运作资源相对有限的前提下,使得系统根据对于目标与现状的差值的评估,产生各种各样的情绪通道,以便使得其在符号推理无法胜任对问题的处理的情况下及时输出恰当的行为。而正如前文对于胡塞尔哲学的引介所揭示的,要研制出这样的系统,其核心难点便在于如何给出使得“目标与现状的差值评估”得以被显现的背景性信念体系——“生活世界”,因为生活世界本身往往是暧昧的、隐而不彰的、开放的、可动的,并且是难以被程序化的。
而与前两个问题相比较,人工情绪研究中的“非常难的问题”则是经由海德格尔哲学的启发所提出的,此即:如何通过对于“死亡”概念的巧妙植入,使得人工智能系统能够领悟其存在的本己性与不可替代性。之所以说这样的研究任务是“非常难”的,乃是因为对于死亡的情绪把握非常复杂,其本身就预设了系统能够把握很多更基本的情绪——或者说,预设了系统的设计者已经基本解决了前述“难问题”。而就目前的人工智能发展水平而言,现有的系统基本上只能达到解决“易问题”的水准,还谈不上解决“难问题”,遑论“非常难的问题”。
有的读者或许会问:为何我们不能满足于对于“易问题”乃至“难问题”的解决呢?为何我们还要去触碰“非常难的问题”?难道我们不担心对于人工智能系统之“本己性”的赋予,会产生对于人类非常不利的结果吗?
对于这一疑虑,笔者的回复如下:人类制造人工智能体的一个非常重要的目的,就是要在人类肉身难以安全进入与撤出的某些未知环境内,让人工智能体取代人类去执行某些重要任务。在这种运用场景中,我们就很难设想相关的人工智能系统的信息处理方式是不具备主动性与创造性的,而“主动性”与“创造性”的动力之一就是某种对于“本己性”的预先领悟。换言之,对于“本己性”的预先领悟,乃是一个能够对未知环境进行积极探索的人工智能系统所应当具备的心智元素。当然,我们的确无法在逻辑上先验地排除这样一种可能性:在某些条件下,上述领悟也能够衍生出对人类用户不利的动机——但这一代价却是人工智能系统的设计者所不可能不承担的,因为“创造性”本身就意味着不可预期性。我们必须在“设计非常愚蠢的、却不可能背叛我们的人工智能”与“设计非常机智的、却可能会背叛我们的人工智能”之间进行选择。不过,无论如何选择,“设计出非常聪明的、却不可能背叛我们的人工智能”始终不是一个可能的被选择项,因此“聪明”本身就意味着“具备对于背叛主人的逻辑可能性的预估力”。
由上述评论,我们甚至可以得到一个适用于未来人—机共治社会的准政治哲学推论。该推论就是:我们似乎很难不赋予具有自主性智能的人工智能体以类似于人类的生存权与公民权,并很难将其视为严格意义上的机器奴隶——否则,此类人工智能体在智慧等级与社会等级方面的不相称地位,反而会为人类所不乐见的“机器人叛变”的发生预埋下伏笔。不过,考虑到人工智能的当下发展水平,上述推论还纯属思辨与科幻的范畴,离真正付诸实施的日子还相当遥远。
本文来自微信公众号:探索与争鸣杂志(ID:tansuoyuzhengming),作者:徐英瑾,复旦大学哲学学院教授,教育部青年长江学者
人工智能在医疗行业应用面临的五大挑战
认清在医疗保健中实施人工智能(AI)所面临的挑战,可以帮助医疗保健提供者制定适当的策略并以无风险的方式快速实施创新的解决方案。
人工智能正在以多种方式改变医疗保健。医疗保健组织正在实施用于机器人手术、护理帮助、准确诊断和精密药物的AI。实际上,毕马威会计师事务所(KPMG)进行的一项调查显示,有53%的高管认为医疗保健在采用AI方面处于领先地位。
尽管在采用AI方面处于领先地位,但并非所有医疗保健组织都已实施AI。部署AI解决方案时面临的挑战仍使一些医疗保健组织无法充分利用AI技术。在这种情况下,医疗保健企业有必要了解医疗保健及其解决方案中的AI挑战。
解决医疗保健中的人工智能挑战
要解决医疗保健中AI实施方面的挑战,必须意识到这些挑战。一旦卫生组织意识到了挑战,便可以更好地找到克服挑战的方法。
医疗保健中的5种人工智能实施挑战
收集数据
人工智能系统需要大量数据。并且收集的数据必须来自可靠的来源。从不可靠的来源收集数据可能会对AI解决方案的输出产生不利影响。
因此,为了获得准确的输出,医院必须从可靠的来源收集培训数据。他们可以从患者的历史和当前病历中找到可靠的数据,因为医疗保健中的每个患者都是他们自身的来源。医疗保健组织还需要为机器学习算法准备准确的数据集。但是数据准备方面的挑战通常很难克服。
因此,毫不奇怪的是,有96%的组织因为成功实现AI而遇到数据相关的问题阻碍。为了准备精确的数据集,医院需要尽早确定所需的结果并相应地准备数据。医疗保健组织还需要确保数据与构建过程一致。他们可以通过清除数据以使丢失的值最小化并消除不相关的数据来使其数据兼容。
保持合规
每个患者都是可靠的数据来源。但是,如果这些来源拒绝提供其数据来构建AI系统怎么办?没有人希望他们的数据被用于非法目的。为了避免这种情况并在患者之间建立信任,政府和领先的医疗保健组织制定了每家医院都必须遵守的法规。
例如,通过了《医疗保健信息携带和责任法案》(HIPAA),以强制执行机密处理患者数据的标准。另一个例子是《经济和临床健康卫生信息技术法案》(HITECH),该法案旨在标准化当今数字时代中电子健康记录(EHR)的维护。这种监管行为使患者可以随意共享其数据,这些数据可用于训练AI系统。
医疗保健组织还需要确保收集的数据受到保护,以增强隐私和安全性。但是,在当今世界,我们经常听到有关网络安全漏洞的消息,保护数据安全并非易事。这也是医疗保健组织可以利用区块链的地方。
AI和区块链的融合可以共同革新许多行业,医疗保健是这些行业之一。区块链将确保安全传输和存储患者数据,以增强隐私和安全性。它还将为患者提供透明性,以便他们可以查看其数据的存储位置和使用方式。
识别应用
大多数企业可以借助一些机器来进行操作。但是,与大多数企业不同,医疗保健组织需要多种工具进行诊断和治疗。
例如,存在用于诊断和治疗不同医疗状况的各种类型的设备,例如呼吸机、扫描仪、X射线机和ECG机。对于医疗保健组织而言,为物联网确定合适的应用可能变得很复杂。医院必须了解不同机器的复杂性,才能确定正确的应用。他们还需要向供应商咨询如何轻松、快速地将AI解决方案与特定机器集成。
卫生组织需要明智地选择AI供应商。选择AI供应商之前,需要考虑多种因素。通用或垂直解决方案,、与目标的一致性以及成本效益等因素会在很大程度上影响AI供应商的选择。识别合适的用例并根据需要选择正确的供应商将有助于医院构建可轻松与现有设备和工作流程集成的AI解决方案。
消除黑匣子
AI系统主要是模拟人类大脑的运作方式。因此,就像我们的大脑一样,它们接收输入并达到输出。但是,我们不知道人工智能系统是如何得出结论的。我们所知道的就是最终的输出。而且,如果不了解AI系统是如何得出结论的,那么对其进行改进就变得很困难。
AI系统的这一挑战被称为黑匣子问题。解决该问题对于几乎每个行业都是必不可少的,但对于医疗保健而言,至关重要。那是因为它会对医疗保健行业产生不利影响。盲目地信任AI解决方案可能会使患者的生命处于危险之中。
例如,根据STAT审查的IBM内部文件,IBM的Watson建议对癌症患者使用不安全的治疗程序。遵守错误的建议操作程序可能会使癌症患者的生命面临危险。因此,医疗行业必须消除AI的黑盒子。
但是,如何消除AI的黑盒子?答案是“通过使用可解释的AI”。可解释的AI通过使这些系统具有透明度来帮助研究人员了解AI系统的输出。它通过事后方法的帮助带来了透明度,该方法围绕四个关键要素而开发,即目标、驱动因素、可解释的族和估计量。
用来解释AI输出的最常见方法之一是反向传播方法。反向传播是用于前馈神经网络的监督训练的一种广泛使用的AI算法。这种可解释的AI方法的实施将确保患者和医生对AI结论的信任。
教育员工和患者
利用AI解决方案可以带来很多好处,但是使用它们很复杂。对AI的潜力以及如何利用AI的意识不足会导致组织中的技能缺口。医疗保健组织需要通过对员工进行有关AI系统及其功能的教育来弥合技能差距。医院和个人专家可以组织不同部门的培训课程,以培训员工如何使用AI系统。
在要治疗的患者准备好接受基于AI的治疗之前,医疗保健中的AI实施很难成功。因此,患者还必须意识到AI的潜力,以便他们可以信任基于AI的治疗。例如,机器人手术可带来许多好处,例如住院时间更短、疼痛减轻、疤痕最少以及失血量降低。
但是,由于缺乏意识和信任,患者可能会担心被AI机器人对其进行操作。医疗机构应提高人们对机器人手术的益处的认识。他们还可以对患者进行AI机器人手术程序教育,然后再对其进行操作。对患者和员工进行有关AI解决方案的教育将确保增加他们对AI系统的信任。
每个卫生组织都希望部署AI系统。成功实施AI解决方案始于制定正确的战略。但是如何创建呢?这需要要解决上述医疗保健中的AI挑战。
对这些挑战和解决方案的了解将帮助医疗保健组织针对其特定应用制定适当的策略。当成功实施AI的实例成为人们关注的焦点时,医院将更有动力部署和扩展其AI解决方案。
人工智能带来的便捷生活
人工智能(ArtificialIntelligence,AI)是一种模拟和模仿人类智能的技术和系统。它可以通过学习和推理来执行各种任务,包括语音识别、图像识别、自然语言处理、机器学习和决策制定等。
人工智能的应用领域非常广泛,包括但不限于以下几个方面:
自动驾驶:人工智能在自动驾驶汽车中起到关键作用。它可以通过感知和分析周围环境的传感器数据,做出实时决策并控制车辆的行驶。
机大学的水课(也被称为选修课或通识教育课程)在教育体系中有其重要的意义,以下是几个主要的意义:
综合素养的培养:水课通常涵盖多个学科领域,帮助学生获得广泛的知识和理解。这些课程可以提供跨学科的视角,培养学生的综合素养和批判思维能力,使他们能够更全面地理解和解决问题。
拓宽视野和兴趣:水课通常包括一些非主修领域的课程,可以帮助学生探索和发现自己的兴趣和潜力。这些课程可以为学生提供一个开放和多样化的学习环境,鼓励他们尝试新的学科和领域,从而拓宽他们的视野和知识范围。
培养终身学习的能力:水课强调学习的过程和方法,而不仅仅关注具体的知识点。通过学习不同学科的方法和思维方式,学生可以培养批判性思维、问题解决能力和自主学习的能力,为他们未来的终身学习打下坚实的基础。
培养社会责任感和全球意识:水课通常涵盖一些社会科学、人文学科和全球问题的课程,可以帮助学生更好地理解社会和全球的挑战和问题。通过学习这些课程,学生可以培养社会责任感、文化理解和全球意识,成为具有社会责任感的公民。
尽管水课在教育中有其意义,但也需要注意课程设置的合理性和质量的保证。水课应该与学生的主修领域相衔接,具有一定的学术和实践价值,避免成为纯粹的填鸭式教育。同时,学生也应该积极选择和参与水课,发挥其潜在的教育价值。器人技术:人工智能使机器人能够理解和交互人类语言,并执行复杂的任务。例如,机器人可以在医院中协助手术、在工厂中进行自动化生产等。
语音助手:人工智能可以通过语音识别和自然语言处理技术,使得语音助手能够理解和回应人类的指令。例如,智能手机上的语音助手可以回答问题、发送短信、提供导航等功能。
金融领域:人工智能可以分析大量的金融数据,帮助银行和金融机构进行风险评估、投资决策和欺诈检测等。
医疗保健:人工智能可以利用机器学习和数据分析技术,帮助医生进行疾病诊断、药物研发和个体化治疗等。
自然语言处理:人工智能可以理解和处理人类语言,包括文本分析、情感分析、机器翻译等。
人工智能的发展和应用对社会和经济具有重要意义。它可以提高工作效率、改善生活质量,并推动科学和技术的进步。然而,人工智能也带来了一些挑战和问题,如隐私和安全问题、失业风险、伦理和道德问题等,需要我们进行深入思考和合理应对。
人工智能(ArtificialIntelligence,AI)具有许多优点,以下是其中几个主要的优点:
自动化和高效性:人工智能可以执行繁重、重复和枯燥的任务,从而提高工作效率和生产力。它可以自动化许多日常任务,减少人力资源的需求,使人们能够专注于更有创造性和战略性的工作。
准确性和精度:人工智能系统可以通过学习和分析大量的数据,提供更准确和精确的结果。它们能够识别和处理复杂的模式和关联,从而提供更准确的决策和预测。
处理大数据:随着数据的爆炸式增长,人工智能可以帮助处理和分析大规模的数据集。它能够从海量数据中提取有价值的信息和洞察,并帮助企业做出更明智的决策。
智能决策支持:人工智能可以根据大量的数据和算法提供决策支持。它可以分析复杂的情况和问题,提供可行的解决方案,并帮助人们做出更明智和理性的决策。
自适应学习能力:人工智能系统具有自适应学习能力,可以通过不断的学习和经验积累来改进和优化自己的性能。它们能够从错误中学习,并根据反馈不断改进和提高自己的表现。
创新和新领域的探索:人工智能在许多领域都展示出巨大的潜力,包括医疗保健、金融、交通、能源等。它可以帮助人们发现新的解决方案和创新的机会,推动科学和技术的进步。
尽管人工智能有许多优点,但也需要注意潜在的风险和挑战,例如隐私和安全问题、失业风险、道德和伦理问题等。因此,在推广和应用人工智能时,需要综合考虑各种因素,并确保其合理和负责任的使用。我们最基本也可以在生活中体现,搜索引擎:使用搜索引擎(如谷歌或百度)时,可以利用人工智能技术进行自然语言处理,帮助快速找到相关信息。
互联网时代在线教育发展面临的机遇与挑战—中国教育信息化网ICTEDU
摘要本文拟对互联网时代在线教育发展面临的机遇和挑战进行分析,并且探讨在此机遇和挑战下在线教育未来应该如何发展,为我国的教育研究提供材料。
引言
当今社会的发展需要教育事业与国民经济发展协调适应,就当前我国教育情况而言,素质水平与教育文化水平的脱节问题已经成为阻碍我国经济发展的重要因素之一,因而教育制度的改革重心应围绕如何提高整体国民素质,促进经济发展。
互联网时代的到来,为教育提供了新的载体和传播方式,同时资本的大量涌入在很大程度上加剧了素质教育行业的获客竞争,获客难、转化难仍然会是素质教育行业发展的痛点。此外,由于各项新兴技术例如:互联网、大数据、云计算、AI智能的不断兴盛,以及教育思想和观念的不断进步,教育行业开启了在线化、OMO模式化的浪潮,各类教培机构搭建在线教育平台逐步成为发展趋势。
一、互联网时代在线教育发展面临的机遇
在线教育产品交易行业随着市场科技端的成熟、需求端的不断优化升级和社会资本的不断深入推动快速发展,各种商业模式也由无到有,逐步拓展、不断演化和相互替换,在线素质教育成为风口,比如在线音乐陪练、在线美术课堂、在线思维训练等。线上模式突破了线下发展的瓶颈,一些教学效果较好、产品体系完善、有望实现标准化扩张的在线项目均获得了资本的青睐。公开资料显示,VIP陪练、Finger、美术宝、考拉阅读、火花思维等在线素质教育企业的融资额均在亿元以上。
1.资本的大量注入
互联网时代的到来,由于政府部门的政策积极推动、新兴网络技术的发展、教育理念和思维的更新迭代以及资本的注入,教育行业迎来了快速发展,教育不再仅通过传统的面对面方式进行。2020年是中国在线教育行业狂飙突进的一年,一方面巨额资本不断向头部企业集中,在线教育行业融资规模超过百亿美元,不仅到达行业高点,也超越了共享单车,新零售等其他互联网领域融资记录;另一方面,在线素质教育的市场需求也逐渐得到释放,据不完全统计,2020年素质教育行业营收规模已突破4200亿元,同比增速约12%。网络在线教育产品随着市场科技端的成熟、需求端的不断优化升级和社会资本的不断注入,发展迅速。
2.市场潜在需求大
随着“双减”政策的出台以及“全面发展”教育理念的兴起,对学科教育的限制让素质教育迎来了发展的小高潮,为素质教育提供巨大的市场,但由于教育观念的进步与思想的转变与市场的具体表现存在一定的落差,导致目前线下专业从事素质教育的机构数量和质量都存在明显不足。而线上素质教育平台可以跨越时间与地域的限制实现师资和教育资源的均衡再分配,同时其辐射面也比线下更广,在时间和空间上更便利。且通过高性价比的体验课程后,网络教培机构采取量身定制提供精准转化服务流程来帮助实现整个产品的有效转化。专业客服老师会及时跟进参与测试的客户,对于测试家长的社会经济心理素质、孩子们的日常学习生活状态、家长对于体验培训班的意见、对授课老师的评价等情况做出具体的分析并及时进行有效的市场营销,用户体验感好。这也是大部分家长选择线上教育平台的原因。
3.5G时代的到来助力网络在线教育
在线教育行业的兴起受益于近些年我国网络的快速发展,2018年前后随着5G等现代信息电子技术的快速发展和技术进步,原来在线教育资源存在的整体色彩和传播时间延迟等技术问题得以解决,在线教育行业进入高速发展时期。得益于人工智能(ArtificialIntelligence,后文简称AI)研究在近几年取得的突破,更多的AI技术被应用于线上教育行业,出现了“斑马AI课”、“咕比启蒙AI课”等新的教育模式,这一教育模式也在一定程度上缓解了师资供需不平衡的问题。再加上近几年虚拟现实(VirtualReality,后文简称VR)技术大热,VR也成为了线上素质教育机构开展直观教学的手段,比如坐在家里就能够在卢浮宫“近距离”欣赏世界名画《蒙娜丽莎》。越来越多的高新技术成为了在线素质教育行业的助推剂,促进教育升级。
二、互联网时代在线教育发展面临的挑战 1.获客难、获客成本高从大环境来说,在全球新冠疫情以及国家大力实行“双减”政策的背景下,在线教培机构数量和产品种类需求扩大,这也将强力倒逼已经在在线教育培训领域具备一定经验的线下教育机构改进创新以适应市场需求。目前在线教育面临的主要困难之一是获客难,获客成本高。从获客方式上分析,获客途径一般有两种,即线上和线下的推广。线上的传播方式具体分为:搜索引擎导航群网络营销、社会网络流量口碑媒介传播服务以及诸如在微信朋友圈、抖音、微博等新媒体上投放网络广告等十几类。线下的各种地推主要是在城市居民区附近的大型商场或者小区专门进行转化推广教学活动以及与相关学校或专业教师进行合作等方式进行获客。从上述的流量转化过程来看,在线教育行业的获客成本远要比线下机构高,获客周期相对来说也比较长,家长在选择一个机构时所要考量的因素包括口碑、性价比以及服务效果等,这些都会在一定程度上加大在线教育行业的获客难度,对比线下机构看得见摸得着的产品和服务来说,选择线上教育机构在一定程度上会增加家长的安全风险。上述因素的多方面叠加就导致了在线教育行业获客难成本高的局面。
2.提升教学质量与快速扩充市场相冲突近年来,由于我国经济发展,人们生活水平的提高,人们对于教育质量的需求也越来越搞。然而,各类在线课程及线上教培机构为了保住市场需求量,在保持快速更新速度的同时,将精力放在了收集和扩充资源的数量上,往往忽略了巩固自身的教育理念,此举给资源有效整合与萃取造成了难度。而且线上教育机构对于人员的评价体系中最重要的指标往往是续班率多少,这样的评估机制难以让在线教育教师沉下心来打磨的自己的教学水平,最终造成的结果就是浪费了大量资源却难以取得进步。
3.线上教学形式受限,成果考查精准度较低
目前线上教学形式虽然逐步呈现出一些多样化的特点,但依然是以PPT、文本、视频教学为主,而教育的交联互动十分重要。在线下学习时,老师对于学生当时学习进程以及学习状态的把握更加准确,互动也更加有效率。而在线上平台学习时,答疑等板块普遍存在着零提问、零回复的状况。素质提升不同于传统书本的学习提升,传统学习提升往往有着更加客观的标准与清晰的路径,然而素质教育成果的体现,很大一部分会依赖教育主导者基于客观事实的主观判断。
三、互联网时代在线教育发展对策
1.提升网络信息技术水平,推进在线教育资源优化升级教育在中国过去的几个网络化阶段进程偏慢主要部分是因为素质教育的教学品类本身对于移动通信信息技术的性能要求相对较高。而随着5G时代的到来,我国的移动互联网络宽带传输速度以及移动无线互联宽带网络的平均下载传输速率已经实现了跨越式的提高,网速的不断提高让很多传统的大型线下职业素质教育机构也走上线上之路。以外,信息技术发挥着重要的作用,借助大数据优势,实现数据深度协同,为在线教育决策提供支撑。网络信息技术水平的提升也为在线教育平台提供更加精准的决策依据。
2.提高在线素质教育门槛,加强监管乘着制度和政策的东风,在线素质教育行业近年来呈现了“野蛮生长”态势,出现了大企业和小作坊同步增长的情况,导致教育质量良莠不齐,教育问题层出不穷。要进一步推动整个在线素质教育的发展,就要制定在线素质教育机构的准入规范,严格培训机构的审批要求,严格控制在线教育机构的教学条件及教学内容,相关的规章制度都要进一步细化并具有可行性和可操作性。另一方面也需要有关部门进一步强化行政监管,多平台联合制定在线教育服务标准,夯实维权制度保障,规范在线教育市场发展,倒逼行业自律。
3.侧重师资力量培养建设,教育服务企业朝向omo改革目前线上素质教育平台亟须解决教学质量提升与市场扩张速度不匹配的主要矛盾,以及教培行业需要师生进行即时交联互动的根本问题。为更进一步推动行业的发展,下一步的改革重心应该放在加大教研和师资培养的力度,企业内部完善培训机制。同时政府有关部门也要设立一定的教学质量标准以规范教师教学活动的开展,多平台协同监管教师教学质量。同时我们还要深化教育服务企业朝向OMO改革。目前素质教育渗透率增高的核心管理逻辑不断加强,技术的落地下各领域的网络化进程也正在逐渐加深,疫情下更是促使行业总体向OMO改革迈进。下一步的重点是要通过依靠多种品类和OMO布局来解决掉线上和线下平台存在的不足,进一步达到企业的规模化,带动整个行业的发展。
结束语
从我国经济形势和教育改革方向来看,在线教育行业形势一片大好,资本的大量注入和高新技术的蓬勃发展给行业带来了勃勃生机,同时受教育主题的思想观念转变的影响以及政府政策的推动作用,给在线素质教育行业带来了巨大的潜在需求,可以说在线素质教育行业是一个有待开发的蓝海行业,但是想要进一步推动在线教培行业的发展还面临许多现实问题的限制,比如在线教育行业的获客周期长成本大对行业扩张的限制、师资供需不平衡和市场扩张的矛盾以及师生交联互动对线上提出的挑战等等。对此在线教育需要进行特色鲜明和深度突破的变革:进一步挖掘高新技术在在线教育行业的价值推进行业优化改革;加强多平台的协同监管,改善在线教育行业的大环境;同时还要加强对师资力量的培养建设,促进行业线上线下完整融合,兼并二者的优势把蛋糕做大,提升整个行业的综合素质,以满足社会转型对人才的需求与期待,从而推动整个社会的经济发展。
参考文献
[1]徐颖红.高校教师在线教学能力现状及其提升策略[D].西华师范大学,2021.
[2]于若楠.中国教育行业线上线下融合教学OMO发展研究[D].北京外国语大学,2021.
[3]张泽鹏.科艺融合背景下儿童美术在线教育服务设计研究[D].浙江工业大学,2020.
[4]唐思遥.“互联网+”艺术教育现状分析与发展策略研究[D].海南大学,2020.
[5]石海娥.素质教育或将从补充走向主流[J].光彩,2021(04):38-41.
[6]徐宏凯,谢洁,杨挺,吴能表.新冠疫情防控期间高校在线教学情势解析及提升线上教学质量的策略分析[J].西南师范大学学报(自然科学版),2021,46(11):102-111.
[7]徐宏凯,谢洁,杨挺,吴能表.新冠疫情防控期间高校在线教学情势解析及提升线上教学质量的策略分析[J].西南师范大学学报(自然科学版),2021,46(11):102-111.
指导老师:赵柳,邓俊