人工智能的创新发展与社会影响
党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明了方向。2018世界人工智能大会9月17日在上海开幕,习总书记致信祝贺并强调指出人工智能发展应用将有力提高经济社会发展智能化水平,有效增强公共服务和城市管理能力。深入学习领会习总书记关于人工智能的一系列重要论述,务实推进我国《新一代人工智能发展规划》,有效规避人工智能“鸿沟”,着力收获人工智能“红利”,对建设世界科技强国、实现“两个一百年”的奋斗目标具有重大战略意义。
一、引言
1956年人工智能(ArtificialIntelligence,简称AI)的概念被正式提出,标志着人工智能学科的诞生,其发展目标是赋予机器类人的感知、学习、思考、决策和行动等能力。经过60多年的发展,人工智能已取得突破性进展,在经济社会各领域开始得到广泛应用并形成引领新一轮产业变革之势,推动人类社会进入智能化时代。美国、日本、德国、英国、法国、俄罗斯等国家都制定了发展人工智能的国家战略,我国也于2017年发布了《新一代人工智能发展规划》,发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏等地政府也相继出台推动人工智能发展的相关政策文件,社会各界对人工智能的重大战略意义已形成广泛共识。
跟其他高科技一样,人工智能也是一把双刃剑。如何认识人工智能的社会影响,也有“天使派”和“魔鬼派”之分。“天使派”认为,人工智能领域的科技创新和成果应用取得重大突破,有望引领第四次工业革命,对社会、经济、军事等领域将产生变革性影响,在制造、交通、教育、医疗、服务等方面可以造福人类;“魔鬼派”认为,人工智能是人类的重大威胁,比核武器还危险,有可能引发第三次世界大战。2018年2月,牛津大学、剑桥大学和OpenAI公司等14家机构共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,指出人工智能可能给人类社会带来数字安全、物理安全和政治安全等潜在威胁,并给出了一些建议来减少风险。
总体上看,已过花甲之年的人工智能当前的发展具有“四新”特征:以深度学习为代表的人工智能核心技术取得新突破、“智能+”模式的普适应用为经济社会发展注入新动能、人工智能成为世界各国竞相战略布局的新高地、人工智能的广泛应用给人类社会带来法律法规、道德伦理、社会治理等方面一系列的新挑战。因此人工智能这个机遇与挑战并存的新课题引起了全球范围内的广泛关注和高度重视。虽然人工智能未来的创新发展还存在不确定性,但是大家普遍认可人工智能的蓬勃兴起将带来新的社会文明,将推动产业变革,将深刻改变人们的生产生活方式,将是一场影响深远的科技革命。
为了客观认识人工智能的本质内涵和创新发展,本报告在简要介绍人工智能基本概念与发展历程的基础上,着重分析探讨人工智能的发展现状和未来趋势,试图揭示人工智能的真实面貌。很显然,在当下人工智能蓬勃发展的历史浪潮中如何选择中国路径特别值得我们深入思考和探讨。因此,本报告最后就我国人工智能发展态势、存在问题和对策建议也进行了阐述。
二、人工智能的发展历程与启示
1956年夏,麦卡锡(JohnMcCarthy)、明斯基(MarvinMinsky)、罗切斯特(NathanielRochester)和香农(ClaudeShannon)等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能”这一概念,标志着人工智能学科的诞生。人工智能的目标是模拟、延伸和扩展人类智能,探寻智能本质,发展类人智能机器。人工智能充满未知的探索道路曲折起伏,如何描述1956年以来60余年的人工智能发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能60余年的发展历程划分为以下6个阶段:
一是起步发展期:1956年-20世纪60年代初。人工智能概念在1956年首次被提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序、LISP表处理语言等,掀起了人工智能发展的第一个高潮。
二是反思发展期:60年代-70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入了低谷。
三是应用发展期:70年代初-80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入了应用发展的新高潮。
四是低迷发展期:80年代中-90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:90年代中-2010年。由于网络技术特别是互联网技术的发展,信息与数据的汇聚不断加速,互联网应用的不断普及加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年IBM深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念,这些都是这一时期的标志性事件。
六是蓬勃发展期:2011年-至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器(GraphicsProcessingUnit,简称GPU)等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越科学与应用之间的“技术鸿沟”,图像分类、语音识别、知识问答、人机对弈、无人驾驶等具有广阔应用前景的人工智能技术突破了从“不能用、不好用”到“可以用”的技术瓶颈,人工智能发展进入爆发式增长的新高潮。
通过总结人工智能发展历程中的经验和教训,我们可以得到以下启示:
(一)尊重学科发展规律是推动学科健康发展的前提。科学技术的发展有其自身的规律,顺其者昌,违其者衰。人工智能学科发展需要基础理论、数据资源、计算平台、应用场景的协同驱动,当条件不具备时很难实现重大突破。
(二)基础研究是学科可持续发展的基石。加拿大多伦多大学杰弗里·辛顿(GeoffreyHinton)教授坚持研究深度神经网络30年,奠定人工智能蓬勃发展的重要理论基础。谷歌的DeepMind团队长期深入研究神经科学启发的人工智能等基础问题,取得了阿尔法狗等一系列重大成果。
(三)应用需求是科技创新的不竭之源。引领学科发展的动力主要来自于科学和需求的双轮驱动。人工智能发展的驱动力除了知识与技术体系内在矛盾外,贴近应用、解决用户需求是创新的最大源泉与动力。比如专家系统人工智能实现了从理论研究走向实际应用的突破,近些年来安防监控、身份识别、无人驾驶、互联网和物联网大数据分析等实际应用需求带动了人工智能的技术突破。
(四)学科交叉是创新突破的“捷径”。人工智能研究涉及信息科学、脑科学、心理科学等,上世纪50年代人工智能的出现本身就是学科交叉的结果。特别是脑认知科学与人工智能的成功结合,带来了人工智能神经网络几十年的持久发展。智能本源、意识本质等一些基本科学问题正在孕育重大突破,对人工智能学科发展具有重要促进作用。
(五)宽容失败应是支持创新的题中应有之义。任何学科的发展都不可能一帆风顺,任何创新目标的实现都不会一蹴而就。人工智能60余载的发展生动地诠释了一门学科创新发展起伏曲折的历程。可以说没有过去发展历程中的“寒冬”就没有今天人工智能发展新的春天。
(六)实事求是设定发展目标是制定学科发展规划的基本原则。达到全方位类人水平的机器智能是人工智能学科宏伟的终极目标,但是需要根据科技和经济社会发展水平来设定合理的阶段性研究目标,否则会有挫败感从而影响学科发展,人工智能发展过程中的几次低谷皆因不切实际的发展目标所致。
三、人工智能的发展现状与影响
人工智能经过60多年的发展,理论、技术和应用都取得了重要突破,已成为推动新一轮科技和产业革命的驱动力,深刻影响世界经济、政治、军事和社会发展,日益得到各国政府、产业界和学术界的高度关注。从技术维度来看,人工智能技术突破集中在专用智能,但是通用智能发展水平仍处于起步阶段;从产业维度来看,人工智能创新创业如火如荼,技术和商业生态已见雏形;从社会维度来看,世界主要国家纷纷将人工智能上升为国家战略,人工智能社会影响日益凸显。
(一)专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定领域的人工智能技术(即专用人工智能)由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,因此形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域,统计学习是专用人工智能走向实用的理论基础。深度学习、强化学习、对抗学习等统计机器学习理论在计算机视觉、语音识别、自然语言理解、人机博弈等方面取得成功应用。例如,阿尔法狗在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,语音识别系统5.1%的错误率比肩专业速记员,人工智能系统诊断皮肤癌达到专业医生水平,等等。
(二)通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。虽然包括图像识别、语音识别、自动驾驶等在内的专用人工智能领域已取得突破性进展,但是通用智能系统的研究与应用仍然是任重而道远,人工智能总体发展水平仍处于起步阶段。美国国防高级研究计划局(DefenseAdvancedResearchProjectsAgency,简称DARPA)把人工智能发展分为三个阶段:规则智能、统计智能和自主智能,认为当前国际主流人工智能水平仍然处于第二阶段,核心技术依赖于深度学习、强化学习、对抗学习等统计机器学习,AI系统在信息感知(Perceiving)、机器学习(Learning)等智能水平维度进步显著,但是在概念抽象(Abstracting)和推理决策(Reasoning)等方面能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
(三)人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,在其2017年的年度开发者大会上,谷歌明确提出发展战略从“MobileFirst”(移动优先)转向“AIFirst”(AI优先);微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿,麦肯锡报告2016年全球人工智能研发投入超300亿美元并处于高速增长,全球知名风投调研机构CBInsights报告显示2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
(四)创新生态布局成为人工智能产业发展的战略高地。信息技术(IT)和产业的发展史就是新老IT巨头抢滩布局IT创新生态的更替史。例如,传统信息产业IT(InformationTechnology)代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网IT(InternetTechnology)代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等,目前智能科技IT(IntelligentTechnology)的产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动AI技术生态的研发布局,全力抢占人工智能相关产业的制高点。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理GPU服务器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。在技术生态方面,人工智能算法、数据、图形处理器(GraphicsProcessingUnit,简称GPU)/张量处理器(TensorProcessingUnit,简称TPU)/神经网络处理器(NeuralnetworkProcessingUnit,NPU)计算、运行/编译/管理等基础软件已有大量开源资源,例如谷歌的TensorFlow第二代人工智能学习系统、脸书的PyTorch深度学习框架、微软的DMTK分布式学习工具包、IBM的SystemML开源机器学习系统等;此外谷歌、IBM、英伟达、英特尔、苹果、华为、中国科学院等积极布局人工智能领域的计算芯片。在人工智能商业和应用生态布局方面,“智能+X”成为创新范式,例如“智能+制造”、“智能+医疗”、“智能+安防”等,人工智能技术向创新性的消费场景和不同行业快速渗透融合并重塑整个社会发展,这是人工智能作为第四次技术革命关键驱动力的最主要表现方式。人工智能商业生态竞争进入白热化,例如智能驾驶汽车领域的参与者既有通用、福特、奔驰、丰田等传统龙头车企,又有互联网造车者如谷歌、特斯拉、优步、苹果、百度等新贵。
(五)人工智能上升为世界主要国家的重大发展战略。人工智能正在成为新一轮产业变革的引擎,必将深刻影响国际产业竞争格局和一个国家的国际竞争力。世界主要发达国家纷纷把发展人工智能作为提升国际竞争力、维护国家安全的重大战略,加紧积极谋划政策,围绕核心技术、顶尖人才、标准规范等强化部署,力图在新一轮国际科技竞争中掌握主导权。无论是德国的“工业4.0”、美国的“工业互联网”、日本的“超智能社会”、还是我国的“中国制造2025”等重大国家战略,人工智能都是其中的核心关键技术。2017年7月,国务院发布了《新一代人工智能发展规划》,开启了我国人工智能快速创新发展的新征程。
(六)人工智能的社会影响日益凸显。人工智能的社会影响是多元的,既有拉动经济、服务民生、造福社会的正面效应,又可能出现安全失控、法律失准、道德失范、伦理失常、隐私失密等社会问题,以及利用人工智能热点进行投机炒作从而存在泡沫风险。首先,人工智能作为新一轮科技革命和产业变革的核心力量,促进社会生产力的整体跃升,推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域发展积极正面影响。与此同时,我们也要看到人工智能引发的法律、伦理等问题日益凸显,对当下的社会秩序及公共管理体制带来了前所未有的新挑战。例如,2016年欧盟委员会法律事务委员会提交一项将最先进的自动化机器人身份定位为“电子人(electronicpersons)”的动议,2017年沙特阿拉伯授予机器人“索菲亚”公民身份,这些显然冲击了传统的民事主体制度。那么,是否应该赋予人工智能系统法律主体资格?另外在人工智能新时代,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题都需要我们从法律法规、道德伦理、社会管理等多个角度提供解决方案。
由于人工智能与人类智能密切关联且应用前景广阔、专业性很强,容易造成人们的误解,也带来了不少炒作。例如,有些人错误地认为人工智能就是机器学习(深度学习),人工智能与人类智能是零和博弈,人工智能已经达到5岁小孩的水平,人工智能系统的智能水平即将全面超越人类水平,30年内机器人将统治世界,人类将成为人工智能的奴隶,等等。这些错误认识会给人工智能的发展带来不利影响。还有不少人对人工智能预期过高,以为通用智能很快就能实现,只要给机器人发指令就可以干任何事。另外,有意炒作并通过包装人工智能概念来谋取不当利益的现象时有发生。因此,我们有义务向社会大众普及人工智能知识,引导政府、企业和广大民众科学客观地认识和了解人工智能。
四、人工智能的发展趋势与展望
人工智能经过六十多年的发展突破了算法、算力和算料(数据)等“三算”方面的制约因素,拓展了互联网、物联网等广阔应用场景,开始进入蓬勃发展的黄金时期。从技术维度看,当前人工智能处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有数据、能耗、泛化、可解释性、可靠性、安全性等诸多瓶颈,创新发展空间巨大,从专用到通用智能,从机器智能到人机智能融合,从“人工+智能”到自主智能,后深度学习的新理论体系正在酝酿;从产业和社会发展维度看,人工智能通过对经济和社会各领域渗透融合实现生产力和生产关系的变革,带动人类社会迈向新的文明,人类命运共同体将形成保障人工智能技术安全、可控、可靠发展的理性机制。总体而言,人工智能的春天刚刚开始,创新空间巨大,应用前景广阔。
(一)从专用智能到通用智能。如何实现从狭义或专用人工智能(也称弱人工智能,具备单一领域智能)向通用人工智能(也称强人工智能,具备多领域智能)的跨越式发展,既是下一代人工智能发展的必然趋势,也是国际研究与应用领域的挑战问题。2016年10月美国国家科学技术委员会发布了《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。DeepMind创始人戴密斯·哈萨比斯(DemisHassabis)提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年7月成立了通用人工智能实验室,100多位感知、学习、推理、自然语言理解等方面的科学家参与其中。
(二)从人工智能到人机混合智能。人工智能的一个重要研究方向就是借鉴脑科学和认知科学的研究成果,研究从智能产生机理和本质出发的新型智能计算模型与方法,实现具有脑神经信息处理机制和类人智能行为与智能水平的智能系统。在美国、欧盟、日本等国家和地区纷纷启动的脑计划中,类脑智能已成为核心目标之一。英国工程与自然科学研究理事会EPSRC发布并启动了类脑智能研究计划。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。人机混合智能得到了我国新一代人工智能规划、美国脑计划、脸书(脑机语音文本界面)、特斯拉汽车创始人埃隆·马斯克(人脑芯片嵌入和脑机接口)等的高度关注。
(三)从“人工+智能”到自主智能系统。当前人工智能的研究集中在深度学习,但是深度学习的局限是需要大量人工干预:人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据(非常费时费力)、用户需要人工适配智能系统等。因此已有科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类AI”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低AI人员成本。
(四)人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、材料等传统科学的发展。例如,2018年美国麻省理工学院启动的“智能探究计划”(MITIntelligenceQuest)就联合了五大学院进行协同攻关。
(五)人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来十年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,在现有基础上能够提高劳动生产率40%;美、日、英、德、法等12个发达国家(现占全球经济总量的一半)到2035年,年经济增长率平均可以翻一番。2018年麦肯锡的研究报告表明到2030年人工智能新增经济规模将达到13万亿美元。
(六)人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出未来五年人工智能提升各行业运转效率,其中教育业提升82%,零售业71%,制造业64%,金融业58%。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
(七)人工智能领域的国际竞争将日趋激烈。“未来谁率先掌握人工智能,谁就能称霸世界”。2018年4月,欧盟委员会计划2018-2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略》重点推动物联网建设和人工智能的应用。世界军事强国已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即提出谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
(八)人工智能的社会学将提上议程。水能载舟,亦能覆舟。任何高科技也都是一把双刃剑。随着人工智能的深入发展和应用的不断普及,其社会影响日益明显。人工智能应用得当、把握有度、管理规范,就能有效控制负面风险。为了确保人工智能的健康可持续发展并确保人工智能的发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,深入分析人工智能对未来经济社会发展的可能影响,制定完善的人工智能法律法规,规避可能风险,确保人工智能的正面效应。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。2018年4月,欧洲25个国家签署了《人工智能合作宣言》,从国家战略合作层面来推动人工智能发展,确保欧洲人工智能研发的竞争力,共同面对人工智能在社会、经济、伦理及法律等方面的机遇和挑战。
五、我国人工智能的发展态势与思考
我国当前人工智能发展的总体态势良好。中国信通院联合高德纳咨询公司(Gartner)于2018年9月发布的《2018世界人工智能产业发展蓝皮书》报告统计,我国(不含港澳台地区)人工智能企业总数位列全球第二(1040家),仅次于美国(2039家)。在人工智能总体水平和应用方面,我国也处于国际前列,发展潜力巨大,有望率先突破成为全球领跑者。但是我们也要清醒地看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
一是高度重视。党和国家高度重视并大力发展人工智能。党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明方向。2016年7月习总书记明确指出,人工智能技术的发展将深刻改变人类社会生活,改变世界,应抓住机遇,在这一高技术领域抢占先机。在党的十九大报告中,习总书记强调“要推动互联网、大数据、人工智能和实体经济深度融合”。在2018年两院院士大会上,习总书记再次强调要“推进互联网、大数据、人工智能同实体经济深度融合,做大做强数字经济”。在2017年和2018年的《政府工作报告》中,李克强总理都提到了要加强新一代人工智能发展。2017年7月,国务院发布了《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动,人工智能将成为今后一段时期的国家重大战略。发改委、工信部、科技部、教育部、中央网信办等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
二是态势喜人。根据2017年爱思唯尔(Elsevier)文献数据库SCOPUS统计结果,我国在人工智能领域发表的论文数量已居世界第一。从2012年开始,我国在人工智能领域新增专利数量已经开始超越美国。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成全球人工智能投融资规模最大国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。近两年,清华大学、北京大学、中国科学院大学、浙江大学、上海交通大学、南京大学等高校纷纷成立人工智能学院。2015年开始的中国人工智能大会(CCAI)已连续成功召开四届、规模不断扩大,人工智能领域的教育、科研与学术活动层出不穷。
三是差距不小。我国人工智能在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在较大差距。英国牛津大学2018年的一项研究报告指出中国的人工智能发展能力大致为美国的一半水平。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,存在“头重脚轻”的不均衡现象。在Top700全球AI人才中,中国虽然名列第二,但入选人数远远低于占一半数量的美国。据领英《全球AI领域人才报告》统计,截至2017年一季度全球人工智能领域专业技术人才数量超过190万,其中美国超过85万,我国仅超过5万人,排名全球第7位。2018年市场研究顾问公司CompassIntelligence对全球100多家AI计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国制定完善人工智能相关法律法规的进程需要加快,对可能产生的社会影响还缺少深度分析。
四是前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出到2030年,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
人类社会已开始迈入智能化时代,人工智能引领社会发展是大势所趋,不可逆转。经历六十余年积累后,人工智能开始进入爆发式增长的红利期。伴随着人工智能自身的创新发展和向经济社会的全面渗透,这个红利期将持续相当长的时期。现在是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧需要深入思考。
(一)树立理性务实的发展理念。围棋人机大战中阿尔法狗战胜李世石后,社会大众误以为人工智能已经无所不能,一些地方政府、社会企业、风险资金因此不切实际一窝蜂发展人工智能产业,一些别有用心的机构则有意炒作并通过包装人工智能概念来谋取不当利益。这种“一拥而上、一哄而散”的跟风行为不利于人工智能的健康可持续发展。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。根据高德纳咨询公司发布的技术发展曲线,当前智能机器人、认知专家顾问、机器学习、自动驾驶等人工智能热门技术与领域正处于期望膨胀期,但是通用人工智能及人工智能的整体发展仍处于初步阶段,人工智能还有很多“不能”,实现机器在任意现实环境的自主智能和通用智能仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此发展人工智能不能以短期牟利为目的,要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,并务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
(二)加强基础扎实的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。在此发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。根据2017年爱思唯尔文献数据库SCOPUS统计结果,尽管我国在人工智能领域发表的论文数量已经排名世界第一,但加权引文影响力则只排名34位。为了客观评价我国在人工智能基础研究方面的整体实力,我们搜索了SCI期刊、神经信息处理系统大会(ConferenceonNeuralInformationProcessingSystems,简称NIPS)等主流人工智能学术会议关于通用智能、深度学习、类脑智能、脑智融合、人机博弈等关键词的论文统计情况,可以清楚看到在人工智能前沿方向中国与美国相比基础实力存在巨大差距:在高质量论文数量方面(按中科院划定的SCI一区论文标准统计),美国是中国的5.34倍(1325:248);在人才储备方面(SCI论文通讯作者),美国是中国的2.12倍(4804:2267)。
我国应对标国际最高水平,建设面向未来的人工智能基础科学研究中心,重点发展原创性、基础性、前瞻性、突破性的人工智能科学。应该鼓励科研人员瞄准人工智能学科前沿方向开展引领性原创科学研究,通过人工智能与脑认知、神经科学、心理学等学科的交叉融合,重点聚焦人工智能领域的重大基础性科学问题,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
(三)构建自主可控的创新生态。美国谷歌、IBM、微软、脸书等企业在AI芯片、服务器、操作系统、开源算法、云服务、无人驾驶等方面积极构建创新生态、抢占创新高地,已经在国际人工智能产业格局中占据先机。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。美国对中兴通讯发禁令一事充分说明自主可控“核高基”技术的重要性,我国应该吸取在核心电子器件、高端通用芯片及基础软件方面依赖进口的教训,避免重蹈覆辙,着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如军民融合、产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。
另外,我们需要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过标准实施加速人工智能驱动经济社会转型升级的进程。
(四)建立协同高效的创新体系。我国经济社会转型升级对人工智能有重大需求,但是单一的创新主体很难实现政策、市场、技术、应用等方面的全面突破。目前我国学术界、产业界、行业部门在人工智能发展方面各自为政的倾向比较明显,数据资源开放共享不够,缺少对行业资源的有效整合。相比而言,美国已经形成了全社会、全场景、全生态协同互动的人工智能协同创新体系,军民融合和产学研结合都做得很好。我国应在体制机制方面进一步改革创新,建立“军、政、产、学、研、用”一体的人工智能协同创新体系。例如,国家进行顶层设计和战略规划,举全国优势力量设立军事智能的研发和应用平台,提供“人工智能+X”行业融合、打破行业壁垒和行政障碍的激励政策;科技龙头企业引领技术创新生态建设,突破人工智能的重大技术瓶颈;高校科研机构进行人才培养和原始创新,着力构建公共数据资源与技术平台,共同建设若干标杆性的应用创新场景,推动成熟人工智能技术在城市、医疗、金融、文化、农业、交通、能源、物流、制造、安全、服务、教育等领域的深度应用,建设低成本高效益广范围的普惠型智能社会。
(五)加快创新人才的教育培养。发展人工智能关键在人才,中高端人才短缺已经成为我国人工智能做大做强的主要瓶颈。另外,我国社会大众的人工智能科技素养也需要进一步提升,每一个人都需要去适应人工智能时代的科技浪潮。在加强人工智能领军人才培养引进的同时,要面向技术创新和产业发展多层次培养人工智能创新创业人才。《新一代人工智能发展规划》提出逐步开展全民智能教育项目,在中小学阶段设置人工智能课程。目前人工智能科普活动受到各地学校的欢迎,但是缺少通俗易懂的高质量人工智能科普教材、寓教于乐的实验设备和器材、开放共享的教学互动资源平台。国家相关部门应高度重视人工智能教育领域的基础性工作,增加投入,组织优势力量,加强高水平人工智能教育内容和资源平台建设,加快人工智能专业的教学师资培训,从教材、教具、教师等多个环节全面保障我国人工智能教育工作的开展。
(六)推动共担共享的全球治理。人工智能将重塑全球政治和经济格局,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能将进一步拉大发达国家和发展中国家的生产力发展水平差距。美国、日本、德国等通过人工智能和机器人的技术突破和广泛应用弥补他们的人力成本劣势,希望制造业从新兴国家回流发达国家。目前看,我国是发展中国家阵容中唯一有望成为全球人工智能竞争中的领跑者,应采取不同于一些国家的“经济垄断主义、技术保护主义、贸易霸凌主义”路线,尽快布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合国家“一带一路”战略,向亚洲、非洲、南美等经济欠发达地区输出高水平、低成本的“中国智造”成果、提供人工智能时代的中国方案,为让人工智能时代的“智能红利”普惠人类命运共同体做出中国贡献!
(七)制定科学合理的法律法规。要想实实在在收获人工智能带来的红利,首先应保证其安全、可控、可靠发展。美国和欧洲等发达国家和地区十分重视人工智能领域的法律法规问题。美国白宫多次组织这方面的研讨会、咨询会;特斯拉等产业巨头牵头成立OpenAI等机构,旨在以有利于整个人类的方式促进和发展友好的人工智能;科研人员自发签署23条“阿西洛马人工智能原则”,意图在规范人工智能科研及应用等方面抢占先机。我国在人工智能领域的法律法规制定及风险管控方面相对滞后,这种滞后局面与我国现阶段人工智能发展的整体形势不相适应,并可能成为我国人工智能下一步创新发展的一大掣肘。因此,有必要大力加强人工智能领域的立法研究,制定相应的法律法规,建立健全公开透明的人工智能监管体系,构建人工智能创新发展的良好法规环境。
(八)加强和鼓励人工智能社会学研究。人工智能的社会影响将是深远的、全方位的。我们当未雨绸缪,从国家安全、社会治理、就业结构、伦理道德、隐私保护等多个维度系统深入研究人工智能可能的影响,制定合理可行的应对措施,确保人工智能的正面效应。应大力加强人工智能领域的科普工作,打造科技与伦理的高效对话机制和沟通平台,消除社会大众对人工智能的误解与恐慌,为人工智能的发展营造理性务实、积极健康的社会氛围。
六、结束语
人工智能经过60多年的发展,进入了创新突破的战略机遇期和产业应用的红利收获期,必将对生产力和产业结构以及国际格局产生革命性影响,并推动人类进入普惠型智能社会。但是,我们需要清醒看到通用人工智能及人工智能的整体发展仍处于初级阶段,人工智能不是万能,人工智能还有很多“不能”。我们应当采取理性务实的发展路径,扎实推进基础研究、技术生态、人才培养、法律规范等方面的工作,在开放中创新,在创新中发展,全速跑赢智能时代,着力建设人工智能科技强国!
(主讲人系中国科学院院士)
人工智能神经网络之父,神经网络是谁提出来的
1、计算机之父和人工智能之父分别是谁计算机之父冯·诺依曼,人工智能之父马文·明斯基。
冯·诺依曼,原籍匈牙利,布达佩斯大学数学博士。20世纪最重要的数学家之一,在现代计算机、博弈论、核武器和生化武器等领域内的科学全才之一,被后人称为“计算机之父”和“博弈论之父”。
马文·明斯基是“人工智能之父”和框架理论的创立者。和麦卡锡一起在1956年发起“达特茅斯会议”并提出人工智能概念的计算机科学家马文·明斯基被授予了1969年度图灵奖,是第一位获此殊荣的人工智能学者。
扩展资料:
冯·诺伊曼是二十世纪最重要的数学家之一,在纯粹数学和应用数学方面都有杰出的贡献。他的工作大致可以分为两个时期:
1940年以前,主要是纯粹数学的研究:在数理逻辑方面提出简单而明确的序数理论,并对集合论进行新的公理化,其中明确区别集合与类。
其后,他研究希尔伯特空间上线性自伴算子谱理论,从而为量子力学打下数学基础;1930年起,他证明平均遍历定理开拓了遍历理论的新领域。
1933年,他运用紧致群解决了希尔伯特第五问题。此外,他还在测度论、格论和连续几何学方面也有开创性的贡献;从1936~1943年,他和默里合作,创造了算子环理论,即所谓的冯·诺伊曼代数。
二次世界大战以前,图灵正是在这里开始研究机器是否可以思考这个问题的,明斯基也在这里开始研究同一问题。1951年他提出了关于思维如何萌发并形成的一些基本理论,并建造了一台学习机,名为Snare。
Snare是世界上第一个神经网络模拟器,其目的是学习如何穿过迷宫,其组成中包括40个“代理”(agent,国内资料也有把它译为“主体”、“智能体”的)和一个对成功给予奖励的系统。
参考资料来源:
参考资料来源:
谷歌人工智能写作项目:小发猫
2、机器人索菲亚其实是一场彻头彻尾的骗局吗?YannLeCun终于还是没忍住,站了出来,怒喷机器人索菲亚是一场彻头彻尾的骗局神经网络之父是谁。YannLeCun是全球人工智能领域「神一般的人物」,被业界誉为「卷积神经网络之父」。他是纽约大学终身教授,创办了纽约大学数据科学中心,扎克伯格则让他统领Facebook人工智能实验室。
1月4日,他在美国科技媒体BusinessInsider上看到了一段对机器人索菲亚的采访视频。视频里,索菲亚延续了自己一贯以来和人类谈笑风生的风格。
「索菲亚之于AI,就像魔术之于真正的魔法。也许我们应该把这称为『货物崇拜』、『AI界的波将金村』或者是『AI版的《绿野仙踪》』。换句话说,这根本就是扯淡。至于TechInsider,你也是这起骗局的帮凶之一。」
机器人索菲亚出自美国公司HansonRobotics之手,这家公司的创始人戴维·汉森在读博时发明了一种仿生材料,可以模仿人的面部肌肉纤维,受到挤压后,还能产生皱纹。这种材料让索菲亚在外观上比其他机器人更像人。
同时,索菲亚还会通过摄像头,借助计算机视觉技术,观察、识别身边人的动作、表情,并作出相应回应。当别人大笑时,她也笑,当别人哭泣时,她也悲伤。这种接近人与人之间情感共鸣的表现,往往让初次见到索菲亚的人惊叹不已。
索菲亚本应到此为止,以目前人工智能发展的阶段,她离自我意识觉醒还很远。但HansonRobotics作为逐利的商业公司,决定强行助推她再往前走一步,用满是噱头的事件不停营销自己。
3、关于冯.诺依曼的介绍?约翰·冯·诺依曼出生于匈牙利的美国籍犹太人数学家,现代电子计算机与博弈论的重要创始人,在泛函分析、遍历理论、几何学、拓扑学和数值分析等众多数学领域及计算机学、量子力学和经济学中都有重大贡献。
冯·诺伊曼从小就以过人的智力与记忆力而闻名。冯·诺伊曼一生中发表了大约150篇论文,其中有60篇纯数学论文,20篇物理学以及60篇应用数学论文。他最后的作品是一个在医院未完成的手稿,后来以书名《计算机与人脑》发布,表现了他生命最后时光的兴趣方向。
扩展资料
学术成就:
1、遍历论
遍历论主要涉及动态系统和不变测度。1932年,冯诺依曼发表了一系列有关遍历论的论文,为遍历论的理论基础做出了贡献。[3]保罗·哈尔莫斯在1932年的一篇遍历论文章中指出“假使冯诺依曼在其它领域没有成就,光这些也足以让他在数学史上留下不朽之名”。
2、算子理论
冯诺依曼在“冯诺依曼代数”中提出了“算子环”的概念。冯诺依曼代数是一种定义于希尔伯特空间的有界算子的星代数,近似于弱算子拓扑,且包含有恒等算子。以他命名的冯诺依曼二重交换元定理表明弱算子拓扑中闭包的分析学定义会与其二重交换元所成集合的纯代数学定义等价。
参考资料来源:
4、人工智能的起源是什么?人工智能(ArtificialIntelligence),英文缩写为AI,是一门由计算机科学、控制论、信息论、语言学、神经生理学、心理学、数学、哲学等多种学科相互渗透而发展起来的综合性新学科。自问世以来AI经过波波折折,但终于作为一门边缘新学科得到世界的承认并且日益引起人们的兴趣和关注。不仅许多其他学科开始引入或借用AI技术,而且AI中的专家系统、自然语言处理和图象识别已成为新兴的知识产业的三大突破口。人工智能的思想萌芽可以追溯到十七世纪的巴斯卡和莱布尼茨,他们较早萌生了有智能的机器的想法。十九世纪,英国数学家布尔和德o摩尔根提出了“思维定律“,这些可谓是人工智能的开端。十九世纪二十年代,英国科学家巴贝奇设计了第一架“计算机器“,它被认为是计算机硬件,也是人工智能硬件的前身。电子计算机的问世,使人工智能的研究真正成为可能。作为一门学科,人工智能于1956年问世,是由“人工智能之父“McCarthy及一批数学家、信息学家、心理学家、神经生理学家、计算机科学家在Dartmouth大学召开的会议上,首次提出。对人工智能的研究,由于研究角度的不同,形成了不同的研究学派。这就是:符号主义学派、连接主义学派和行为主义学派。传统人工智能是符号主义,它以Newell和Simon提出的物理符号系统假设为基础。物理符号系统是由一组符号实体组成,它们都是物理模式,可在符号结构的实体中作为组成成分出现,可通过各种操作生成其它符号结构。物理符号系统假设认为:物理符号系统是智能行为的充分和必要条件。主要工作是“通用问题求解程序“(GeneralProblemSolver,GPS):通过抽象,将一个现实系统变成一个符号系统,基于此符号系统,使用动态搜索方法求解问题。连接主义学派是从人的大脑神经系统结构出发,研究非程序的、适应性的、大脑风格的信息处理的本质和能力,研究大量简单的神经元的集团信息处理能力及其动态行为。人们也称之为神经计算。研究重点是侧重于模拟和实现人的认识过程中的感觉、知觉过程、形象思维、分布式记忆和自学习、自组织过程。行为主义学派是从行为心理学出发,认为智能只是在与环境的交互作用中表现出来。人工智能的研究经历了以下几个阶段:第一阶段:50年代人工智能的兴起和冷落人工智能概念首次提出后,相继出现了一批显著的成果,如机器定理证明、跳棋程序、通用问题s求解程序、LISP表处理语言等。但由于消解法推理能力的有限,以及机器翻译等的失败,使人工智能走入了低谷。这一阶段的特点是:重视问题求解的方法,忽视知识重要性。第二阶段:60年代末到70年代,专家系统出现,使人工智能研究出现新高潮DENDRAL化学质谱分析系统、MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统、Hearsay-II语音理解系统等专家系统的研究和开发,将人工智能引向了实用化。并且,1969年成立了国际人工智能联合会议(InternationalJointConferencesonArtificialIntelligence即IJCAI)。第三阶段:80年代,随着第五代计算机的研制,人工智能得到了很大发展日本1982年开始了“第五代计算机研制计划“,即“知识信息处理计算机系统KIPS“,其目的是使逻辑推理达到数值运算那么快。虽然此计划最终失败,但它的开展形成了一股研究人工智能的热潮。第四阶段:80年代末,神经网络飞速发展1987年,美国召开第一次神经网络国际会议,宣告了这一新学科的诞生。此后,各国在神经网络方面的投资逐渐增加,神经网络迅速发展起来。第五阶段:90年代,人工智能出现新的研究高潮由于网络技术特别是国际互连网的技术发展,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。不仅研究基于同一目标的分布式问题求解,而且研究多个智能主体的多目标问题求解,将人工智能更面向实用。另外,由于Hopfield多层神经网络模型的提出,使人工神经网络研究与应用出现了欣欣向荣的景象。人工智能已深入到社会生活的各个领域。IBM公司“深蓝“电脑击败了人类的世界国际象棋冠军,美国制定了以多Agent系统应用为重要研究内容的信息高速公路计划,基于Agent技术的Softbot(软机器人)在软件领域和网络搜索引擎中得到了充分应用,同时,美国Sandia实验室建立了国际上最庞大的“虚拟现实“实验室,拟通过数据头盔和数据手套实现更友好的人机交互,建立更好的智能用户接口。图像处理和图像识别,声音处理和声音识别取得了较好的发展,IBM公司推出了ViaVoice声音识别软件,以使声音作为重要的信息输入媒体。国际各大计算机公司又开始将“人工智能“作为其研究内容。人们普遍认为,计算机将会向网络化、智能化、并行化方向发展。二十一世纪的信息技术领域将会以智能信息处理为中心。目前人工智能主要研究内容是:分布式人工智能与多智能主体系统、人工思维模型、知识系统(包括专家系统、知识库系统和智能决策系统)、知识发现与数据挖掘(从大量的、不完全的、模糊的、有噪声的数据中挖掘出对我们有用的知识)、遗传与演化计算(通过对生物遗传与进化理论的模拟,揭示出人的智能进化规律)、人工生命(通过构造简单的人工生命系统(如:机器虫)并观察其行为,探讨初级智能的奥秘)、人工智能应用(如:模糊控制、智能大厦、智能人机接口、智能机器人等)等等。人工智能研究与应用虽取得了不少成果,但离全面推广应用还有很大的距离,还有许多问题有待解决,且需要多学科的研究专家共同合作。未来人工智能的研究方向主要有:人工智能理论、机器学习模型和理论、不精确知识表示及其推理、常识知识及其推理、人工思维模型、智能人机接口、多智能主体系统、知识发现与知识获取、人工智能应用基础等。
5、carolreiley是华人吗CarolReiley是华裔!【引证资料】吴恩达:创造不可限量的未来21世纪经济报道张勇曾宪超谈钊硅谷、北京报道2014-05-2400:53:01评论(0)条移动客户端吴恩达创造未来机器人人工智能核心提示:人工智能的未来不可限量,这是无论硅谷还是世界上任何一个类似硅谷的地方都认同的说法。21世纪经济报道吴恩达无疑是硅谷的一个传奇人物,其实并不需要很多标签来表述。但提起他,永远都逃不开这一连串带着惊叹号的履历:他是全世界人工智能和深度学习的泰斗级人物,是谷歌大脑的缔造者,是斯坦福大学人工智能实验室的主任,同时还是MOOK巨头Coursera的创始人。从还是孩童起便梦想发明一种像人类一样思考、学习的机器,之后经历了许多的挫败和颠覆性的顿悟,终于在8年前触摸到坚守多年的理想之光。而后的故事,我们都知道了。2014年对于吴恩达来说是很不平凡的一年。就在前不久,他完成了人生中重要的一件事,与他的同领域华裔女友在美国举办了婚礼。两人的甜蜜合影一公布便收到数不清的祝福,有人甚至把这一私事称为“也许是人工智能发展史上历史性的一刻。”人工智能的未来不可限量,这是无论硅谷还是世界上任何一个类似硅谷的地方都认同的说法。数据挖掘、深度学习、智能系统乃至于下一代计算机的构造,任何突破,都在以人类梦想设计现实。而吴恩达迎向的,是一个充满爆炸性奇迹的不可限量的未来。在线教育之梦2012年初,Coursera的诞生是全球在线学习的一个标志性事件。在创始人吴恩达的生日那天,被称为引领在线教育海啸的Coursera正式上线,吴恩达的机器学习讲课视频作为最早的几个课程被放到网上,点击率瞬间爆表。Coursera也被评为了2012年度美国最佳创业公司。在接受特约记者专访时,吴恩达曾动情地告诉我们他对于教育的期冀:“我想让全世界所有的人都能随时随地接受最好的高等教育。我希望人的成功是立足于他们的胆量、勤奋以及智慧,而不是依赖着家庭、地位和出身。我想看到,每一个人都能有通过受教育取得为他们自己、他的家庭、他所在的社会创造美好和价值的平等机会。”他的心愿通过Coursera正在得以实现。记者得知,不久前,Coursera因为人数扩张到100多人而搬了新家,并在全球拥有了750万注册用户。呈几何级增长的背后,来自全球的学生通过这个网站学习到了涵盖100多所顶尖高校12种语言的优质课程,其中有昆曲之美、秦始皇等中文课,以及复旦大学、上海交通大学、香港中文大学和台湾大学的内容。美国教育委员会也官方认可了其中部分课程可转化为相应学分。今年年初Coursera又提供了一个新的项目,让学生不仅可以学一门课程,还可以学连续的进阶的课程,目前最受欢迎的是安卓的变成。通过这个项目,学生可以选择其中的三门安卓的编程,学完之后还可以做一个大型的课程设计的项目。Coursera会将你作为课程毕业设计的作者帮助联系一些安卓的开发者来进行评估,从而让学生对自己的学习内容理解更深刻,并获得更多的指导和机会。吴恩达说这些可能还将会更多。他还说到与此带来的数字化挖掘。让吴恩达真正脸上透露出掩不住喜悦的是数字挖掘。他告诉我们在Coursera创办的第一年所收集到的数据就比人类五千年教育史上采集到的综合还要多。而根据这些数据,可以深度挖掘出不同国家和地区学生的学习内容、习惯,并根据各自不同的情况进行个性化内容的推送。他表示Coursera给每个学生发的邮件都是不一样的,而且还会在过程中测试各种不同的算法。据吴恩达所说,目前所有已知的算法都在Coursera上试了一遍。很多高校已经通过Coursera让吴恩达所说的“翻转课堂”的实践成为了可能。在吴恩达看来,“翻转教室”正是将在线教育和传统教育的优势结合起来的一种非常科学而高效的教育形态。学生可以自行在家或者在任何地方通过网络听完课程写完练习,然后到一个教室(或是发展成熟的广义平台)进行互动。本月于北京召开的全球移动化联网大会上,吴恩达向所有人介绍了Coursera新任命的CEO,并发表了演讲。今后,吴恩达将担任Coursera的董事长职位,且负责Coursera在中国的长期发展。关于教育,他的演讲中有同样动人的一段话:“我认为教育事业是给人力量的一个事业,有了教育之后你可以去编程、你可以去再教别人,你还可以为自己的孩子去烹饪健康的食品,你还可以活得更久、活得更健康。我觉得在Coursera有了这样的一种技术,可以使我们自己还有大学的合作伙伴在全球把这种力量赋予全球的每一个公民。未来我们的目标就是要实现全面的教育的获得,让未来不再是一个乌托邦式的梦想,这就是我们的使命。未来,全球每一个人都应该免费的能够获得优质的教育。”人工智能之父吴恩达的科研史几乎就是人工智能领域的断代史。2010年,已然是学界领军者的吴恩达加入谷歌开发团队XLab;2012年其开发的人工神经网络通过观看一周YouTube视频,自主学会了识别猫的视频,这是人工智能领域的一个里程碑。童年的梦想步步照进现实。尽管现有技术对于人类大脑数以亿计的神经元如何互相连结尚还在摸索,对于中枢神经系统存储和处理信息的原理仍然在不断完善,但他亲身所历的人工智能领域的爆发式革命让他惊叹这一切发展得如此之快,让他有信心能在未来看到与人脑媲美的机器,实现儿时的念想。2011年,吴恩达正式在谷歌领导建立了GoogleBrain项目,随后谷歌便在深度学习领域迅速推行了一系列动作。参与并引领了这场业界革命的吴恩达欣喜看到,世界上越来越多的国家和地区开始对深度学习高度重视,大量技术和资源向这个领域明显倾斜。中国的科学家正在研究一个名为“脑网络穹顶”(Brainnetdome)的新的大脑图谱;中国搜索巨头百度在硅谷成立了深度学习实验室;日本工程师在构建控制机器人的人工神经网络;南非神经科学家亨利·马克曼与来自欧盟和以色列的科学家们合作,试图利用数千次实验得到的数据在一台超级计算机中模拟出人脑。其他科技巨头公司如微软和高通也都开始招聘和聘请更多研究“基于神经科学的计算机算法”的科学家。而美国国内,大量项目资金投向了深度学习领域。奥巴马政府宣布将支持筹建一项名为“脑计划”(BRAIN)的跨学科的科研项目,其全称是“基于神经科学技术创新的人脑研究”(BrainResearchThroughAdvancingInnovativeNeurotechnologiesInitiative,简写为BRAIN项目)。有数据显示,美国政府对这项工作重心为人工智能的BRAIN项目拨款的1.1亿美元中,一半来自美国国防部高级研究项目局,超过了美国国立卫生研究院的拨款数。美国国立卫生研究院特地为此发布了一个指南,计划用3年时间集中研究6类领域,研发观察大脑神经元的新技术和新方法。美国国防部研究部门称,希望BRAIN项目能够“催生新的信息处理架构或者计算方法”。在美国推出BRAIN计划前,欧盟委员会宣布投入10亿欧元资助“未来与新兴技术(FET)”竞赛的旗舰项目之一的“人脑工程(HumanBrainProject)”。2014年3月,两项计划展开合作。并就合作的程度、数据共享的问题以及彼此的科学进展进行协商,以期在尽量不重复彼此工作的前提下使研究覆盖尽可能多的领域。“大神经网络时代”已到来。深度学习已是计算机科学发展的大势所趋。人工智能之父吴恩达用一个童年梦想,某种程度上点亮了未来。“I‘mfromgreaterChina”比起AndrewYNg来说,吴恩达这个中文名似乎听起来更亲切一些。他的身份看起来有一点“复杂”:1976年吴恩达出生在英国,父亲是香港当地的一名医生。吴恩达在香港长大,随后前往新加坡和美国学习,于2002年获得了加州大学伯克利分校的博士学位,之后便一直在美国从事科研工作。作为一名华裔科学家,吴恩达与中国的交流互动一直非常频繁。接受采访的时候,他不止一次说道:“I‘mfromgreaterChina。”他不时以人气嘉宾的身份出现在清华北大的演讲中,他来回飞中国多次促成Coursera与中国高校以及网易等的合作。就在5月16日,中国最大的搜索引擎公司百度的内部邮件中公布,吴恩达将正式出任百度硅谷首席科学家职务,负责百度深度学习研究院的工作。吴恩达的加入,是中国互联网界迄今为止引进的最为重量级外援。早期,吴恩达与他的团队开发了世界上最先进的自动控制直升机之一。那时,他也一直从事斯坦福的人工智能机器人项目,项目最终开发了广泛使用的开源机器人技术软件平台ROS。2011年投入GoogleBrain后吴恩达便一直专注于深度学习领域。这名大神级外援其实一直以来都是百度的专家顾问,去年起已在帮助位于硅谷的百度深度实验室招人,因为百度的深度实验室距离google只有不到十公里,而从去年起,吴恩达便不止一次来到百度北京办公所在地进行指导和交流。加上刚刚与同领域且同为华裔的CarolReiley结婚,2014年对于吴恩达来说是名符其实的“中国年”。作为一个希望以自身努力对这个世界做推动的人,无论是中国美国,是科技还是教育,或许从普世价值上来说,对于吴恩达都是一样的。对吴恩达来说,有一个学术上甚至是人生上的节点,给他的影响是不可磨灭的。这便是在八年前,在他一度濒临放弃学术研究时很偶然地接触到了一种当时“并不入流”的理论:“人类的智慧源于单一的算法。”也就是说不同区域的功能包括大脑,都是在后天调试和执行中产生的,但本质上算法完全一样。一瞬间,他悟了。随后,便是他的硅谷传奇人生。今天,对于Coursera在中国的推行,他不遗余力去做;对于深度学习在中国的发展,他也心怀热忱。他希望让数以亿计的中国学生和美国以及世界同步,随时接受到最好的高等教育,也希望科技的力量能够带给全人类更智能的生活方式和充满更多可能的未来。或许因为他的心一直和中国贴得很近,还因为,他相信,相隔得再远,“但本质都一样”,就和那个改变了他人生的理论说的那样。(编辑张勇)返回21世纪网首页>>请采纳~
6、新型神经网络芯片会对科技领域乃至整个世界产生什么巨大影响一、与传统计算机的区别1946年美籍匈牙利科学家冯·诺依曼提出存储程序原理,把程序本身当作数据来对待。此后的半个多世纪以来,计算机的发展取得了巨大的进步,但“冯·诺依曼架构”中信息存储器和处理器的设计一直沿用至今,连接存储器和处理器的信息传递通道仍然通过总线来实现。随着处理的数据量海量地增长,总线有限的数据传输速率被称为“冯·诺依曼瓶颈”——尤其是移动互联网、社交网络、物联网、云计算、高通量测序等的兴起,使得‘冯·诺依曼瓶颈’日益突出,而计算机的自我纠错能力缺失的局限性也已成为发展障碍。结构上的缺陷也导致功能上的局限。例如,从效率上看,计算机运算的功耗较高——尽管人脑处理的信息量不比计算机少,但显然而功耗低得多。为此,学习更多层的神经网络,让计算机能够更好地模拟人脑功能,成为上世纪后期以来研究的热点。在这些研究中,核心的研究是“冯·诺依曼架构”与“人脑架构”的本质结构区别——与计算机相比,人脑的信息存储和处理,通过突触这一基本单元来实现,因而没有明显的界限。正是人脑中的千万亿个突触的可塑性——各种因素和各种条件经过一定的时间作用后引起的神经变化(可变性、可修饰性等),使得人脑的记忆和学习功能得以实现。大脑有而计算机没有的三个特性:低功耗(人脑的能耗仅约20瓦,而目前用来尝试模拟人脑的超级计算机需要消耗数兆瓦的能量);容错性(坏掉一个晶体管就能毁掉一块微处理器,但是大脑的神经元每时每刻都在死亡);还有不需为其编制程序(大脑在与外界互动的同时也会进行学习和改变,而不是遵循预设算法的固定路径和分支运行。)这段描述可以说是“电”脑的最终理想了吧。注:最早的电脑也是模拟电路实现的,之后发展成现在的只有0、1的数字CPU。今天的计算机用的都是所谓的冯诺依曼结构,在一个中央处理器和记忆芯片之间以线性计算序列来回传输数据。这种方式在处理数字和执行精确撰写的程序时非常好用,但在处理图片或声音并理解它们的意义时效果不佳。有件事很说明问题:2012年,谷歌展示了它的人工智能软件在未被告知猫是什么东西的情况下,可以学会识别视频中的猫,而完成这个任务用到了1.6万台处理器。要继续改善这类处理器的性能,生产商得在其中配备更多更快的晶体管、硅存储缓存和数据通路,但所有这些组件产生的热量限制了芯片的运作速度,尤其在电力有限的移动设备中。这可能会阻碍人们开发出有效处理图片、声音和其他感官信息的设备,以及将其应用于面部识别、机器人,或者交通设备航运等任务中。神经形态芯片尝试在硅片中模仿人脑以大规模的平行方式处理信息:几十亿神经元和千万亿个突触对视觉和声音刺激物这类感官输入做出反应。作为对图像、声音等内容的反应,这些神经元也会改变它们相互间连接的方式,我们把这个过程叫做学习。神经形态芯片纳入了受人脑启发的“神经网路”模式,因此能做同样的事。人工智能的顶尖思想家杰夫·霍金斯(JeffHawkins)说,在传统处理器上用专门的软件尝试模拟人脑(谷歌在猫实验中所做的),以此作为不断提升的智能基础,这太过低效了。霍金斯创造了掌上电脑(PalmPilot),后来又联合创办了Numenta公司,后者制造从人脑中获得启发的软件。“你不可能只在软件中建造它,”他说到人工智能,“你必须在硅片中建造它。”现有的计算机计算,程序的执行是一行一行执行的,而神经网络计算机则有所不同。现行的人工智能程式,基本上都是将大大小小的各种知识写成一句一句的陈述句,再灌进系统之中。当输入问题进去智能程式时,它就会搜寻本身的资料库,再选择出最佳或最近解。2011年时,IBM有名的Watson智能电脑,便是使用这样的技术,在美国的电视益智节目中打败的人类的最强卫冕者。(神经网络计算机)以这种异步信号发送(因没有能使其同步的中央时钟而得名)处理数据的速度比同步信号发送更快,以为没有时间浪费在等待时钟发出信号上。异步信号发送消耗的能量也更少,这样便满足了迈耶博士理想的计算机的第一个特点。如果有一个处理器坏了,系统会从另一路线绕过它,这样便满足了迈耶博士理想的计算机的第二个特点。正是由于为异步信号发送编程并不容易,所以大多数计算机工程师都无视于此。然而其作为一种模仿大脑的方式堪称完美。功耗方面:硬件方面,近年来主要是通过对大型神经网络进行仿真,如Google的深度学习系统GoogleBrain,微软的Adam等。但是这些网络需要大量传统计算机的集群。比方说GoogleBrain就采用了1000台各带16核处理器的计算机,这种架构尽管展现出了相当的能力,但是能耗依然巨大。而IBM则是在芯片上的模仿。4096个内核,100万个“神经元”、2.56亿个“突触”集成在直径只有几厘米的方寸(是2011年原型大小的1/16)之间,而且能耗只有不到70毫瓦。IBM研究小组曾经利用做过DARPA的NeoVision2Tower数据集做过演示。它能够实时识别出用30帧每秒的正常速度拍摄自斯坦福大学胡佛塔的十字路口视频中的人、自行车、公交车、卡车等,准确率达到了80%。相比之下,一台笔记本编程完成同样的任务用时要慢100倍,能耗却是IBM芯片的1万倍。Ref:Amillionspiking-neuronintegratedcircuitwithascalablecommunicationnetworkandinterface.PaulA.Merollaetal.Science345,668(2014);DOI:10.1126/science.1254642因为需要拥有极多数据的Database来做training以及需要极强大的计算能力来做prediction,现有的一些Deeplearning如AndrewNg的GoogleBrain、Apple的Siri等都需要连接网络到云端的服务器。二、争议:虽然深度学习已经被应用到尖端科学研究及日常生活当中,而Google已经实际搭载在核心的搜寻功能之中。但其他知名的人工智能实验室,对於深度学习技术的反应并不一致。例如艾伦人工智慧中心的执行长OrenEtzioni,就没有考虑将深度学习纳入当前开发中的人工智慧系统中。该机构目前的研究是以小学程度的科学知识为目标,希望能开发出光是看学校的教科书,就能够轻松应付各类考试的智能程式。OrenEtzioni以飞机为例,他表示,最成功的飞机设计都不是来自於模仿鸟的结构,所以脑神经的类比并无法保证人工智能的实现,因此他们暂不考虑借用深度学习技术来开发这个系统。但是从短期来看,情况也许并没有那么乐观。首先芯片的编程仍然是个大问题。芯片的编程要考虑选择哪一个神经元来连接,以及神经元之间相互影响的程度。比方说,为了识别上述视频中的汽车,编程人员首先要对芯片的仿真版进行必要的设置,然后再传给实际的芯片。这种芯片需要颠覆以往传统的编程思想,尽管IBM去年已经发布了一套工具,但是目前编程仍非常困难,IBM团队正在编制令该过程简单一点的开发库。(当然,如果我们回顾过去编程语言从汇编一路走来的历史,这一点也许不会成为问题。)其次,在部分专业人士看来,这种芯片的能力仍有待证实。再者,真正的认知计算应该能从经验中学习,寻找关联,提出假设,记忆,并基于结果学习,而IBM的演示里所有学习(training)都是在线下的冯诺依曼计算机上进行的。不过目前大多数的机器学习都是离线进行的,因为学习经常需要对算法进行调整,而IBM的硬件并不具备调整的灵活性,不擅长做这件事情。三、人造神经元工作原理及电路实现人工神经网络人工神经网络(artificialneuralnetwork,缩写ANN),简称神经网络(neuralnetwork,缩写NN),是一种模仿生物神经网络的结构和功能的数学模型或计算模型。神经网络是一种运算模型,由大量的节点(或称“神经元”,或“单元”)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activationfunction)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。Ref:Wikipedia:人工神经网络电路原理神经递质的分泌反过来又是对动作电位刺激的反应。然而神经元在接收到这些神经递质信号中的一个后便不会再继续发出动作电位。当然,它们会逐渐累加至一个极限值。在神经元接受了一定数量的信号并超过极限值后----从根本上讲是一个模拟进程----然后它们会发出一个动作电位,并自行重置。Spikey的人造神经元也是这么做的,当它们每次受到激发时都会在电容中累积电荷,直至达到限值,电容再进行放电。具体电路结构和分析之后有机会的话再更新。现阶段硬件的实现方式有数电(IBM、Qualcomm)、模电、数模混合(学界)、GPUs等等,还有各种不是基于硅半导体制程制作的神经元等的device方面的研究。四、历史Neuromorphicengineering由老祖宗CarverMead提出卡福·米德是加州理工学院的一名工程师,被公认为神经形态计算机之父(当然还发明了“神经形态学”这个词)神经形态芯片的创意可以追溯到几十年前。加州理工大学的退休教授、集成电路设计的传奇人物卡弗·米德(CarverMead)在1990年发表的一篇论文中首次提出了这个名称。这篇论文介绍了模拟芯片如何能够模仿脑部神经元和突触的电活动。所谓模拟芯片,其输出是变化的,就像真实世界中发生的现象,这和数字芯片二进制、非开即关的性质不同。后来这(大脑研究)成为我毕生的工作,我觉得我可以有所贡献,我尝试离开计算机行业而专注大脑研究。首先我去了MIT的人工智能研究院,我想,我也想设计和制作聪明的机器,但我的想法是先研究大脑怎么运作。而他们说,呃,你不需要这样做,我们只需要计算机编程。而我说,不,你应该先研究大脑。他们说,呃,你错了。而我说,不,你们错了。最后我没被录取。但我真的有点失望,那时候年轻,但我再尝试。几年后再加州的Berkley,这次我尝试去学习生物方面的研究。我开始攻读生物物理博士课程。我在学习大脑了,而我想学理论。而他们说,不,你不可以学大脑的理论,这是不可以的,你不会拿到研究经费,而作为研究生,没有经费是不可以的。我的天。八卦:老师说neuralnetwork这个方向每20年火一次,之前有很长一段时间的沉寂期,甚至因为理论的不完善一度被认为是江湖术士的小把戏,申请研究经费都需要改课题名称才能成功。(这段为小弟的道听途说,请大家看过就忘。后来看相关的资料发现,这段历史可能与2006年GeoffreyE.Hinton提出深度学习的概念这一革命性工作改变了之前的状况有关。)五、针对IBM这次的工作:关于SyNAPSE美国国防部先进研究项目局的研究项目,由两个大的group组成:IBMteam和HRLTeam。Synapse在英文中是突触的意思,而SyNAPSE是SystemsofNeuromorphicAdaptivePlasticScalableElectronics的简称。Cognitivecomputing:NeurosynapticchipsIBMproducesfirstworkingchipsmodeledonthehumanbrain另一个SyNAPSE项目是由IBM阿尔马登实验室(位于圣何塞)的达尔门德拉·穆德哈负责。与四所美国大学(哥伦比亚大学,康奈尔大学,加州大学默塞德分校以及威斯康辛-麦迪逊大学)合作,穆德哈博士及其团队制造了一台神经形态学计算机的原型机,拥有256个“积分触发式”神经元,之所以这么叫是因为这些神经元将自己的输入累加(即积分)直至达到阈值,然后发出一个信号后再自行重置。它们在这一点上与Spikey中的神经元类似,但是电子方面的细节却有所不同,因为它们是由一个数字储存器而非许多电容来记录输入信号的。Ref:Amillionspiking-neuronintegratedcircuitwithascalablecommunicationnetworkandinterface.PaulA.Merollaetal.Science345,668(2014);DOI:10.1126/science.1254642
7、美国和日本的哪所大学人工智能,计算机专业比较好美国无疑是MIT最好,其次是斯坦福、卡内基梅隆、加州大学伯克利分校、华盛顿大学、德州大学奥斯丁分校、宾州大学、康奈尔等。日本我知道东京大学,早稻田大学这方面比较强,但这个我了解不够全面。计算机也是上述几个大学排名最前(硕士),另外加上普林斯顿和佐治亚理工学院。日本查了一下资料,排名是:1东京大学3KyotoUniversity京都大学5UniversityofTsukuba筑波大学12NagoyaUniversity名古屋大学13OsakaUniversity大阪大学15KeioUniversity庆应义塾大学27TokyoInstituteofTechnology东京工业大学28KyushuUniversity九州大学36KobeUniversity神户大学48OkayamaUniversity冈山大学54RitsumeikanUniversity立命馆大学55HiroshimaUniversity广岛大学实际上早稻田在计算机方面也是很强的。