世界人工智能大会科学前沿论坛圆满举办
转自:上观新闻
7月6日,2023年世界人工智能大会(WAIC)主论坛科学前沿全体会议(PlenarySession·ScientificFrontier)在上海圆满举办。科学前沿全体会议由世界人工智能大会组委会、上海人工智能实验室(上海AI实验室)、上海市徐汇区人民政府联合主办,全球高校人工智能学术联盟(GAIAA)承办,中国电信、中国联通、火山引擎和西岸集团作为支持单位。多位全球人工智能及相关交叉领域顶级科学家、高校教授及业内外人士齐聚一堂,共同探讨全球化视野下的“通用人工智能与科学未来”。上海市副市长刘多出席会议并致辞。科技部战略规划司司长梁颖达出席会议并致辞。中央广播电视总台编务会议成员姜文波,上海市科技工作党委书记徐枫,上海市徐汇区委书记曹立强,上海市徐汇区委副书记、区长钟晓咏出席会议。上海市科学技术委员会主任骆大进主持开幕仪式。上海市副市长刘多发表致辞刘多在致辞中指出,面向未来,上海将抢抓通用人工智能发展机遇,发挥城市功能、技术积累、产业集聚、应用场景、人力资源等综合优势,进一步加强人工智能基础理论和关键技术研究,着力提升自主创新能力,打造具有全球影响力的创新高地和世界级产业集群。科技部战略规划司司长梁颖达发表致辞梁颖达表示,展望未来,我们将聚焦人工智能发展和治理等重大议题,与国际业界同仁共推发展、共护安全、共享成果。论坛由上海AI实验室教授、西北工业大学教授李学龙主持。上海AI实验室联合多家机构在论坛上发布重大前沿成果,与会嘉宾围绕人工智能前沿课题、AIGC技术革新与艺术创作、AI交互范式、AI技术在地球系统基础研究应用等具体议题进行了主题演讲及圆桌对话。重磅发布:开启通用大模型新时代会议期间,上海AI实验室与商汤科技联合香港中文大学、复旦大学、上海交通大学及清华大学发布全新升级的“书生通用大模型体系”(以下简称“书生大模型”),包括“书生·多模态”“书生·浦语”和“书生·天际”等三大基础模型,以及首个面向大模型研发与应用的全链条开源体系。目前,“书生大模型”在130多个评测中性能达世界领先或先进水平。其中,“书生·多模态”无缝整合了语言、图像、视频等多种模态,首次实现通过自然语言定义视觉任务,并具有多模态交互和跨模态生成能力;升级后的“书生·浦语”为国内首个正式发布的支持8K语境长度的千亿参数级语言大模型;“书生·天际”则是全球首个城市级NeRF实景三维大模型,具备千亿参数,在全球首次实现对100平方公里城市实景进行4K高精度建模及编辑。上海AI实验室主任助理乔宇教授上海AI实验室主任助理乔宇教授表示:“实验室坚持以原始创新引领技术进步,以开源开放赋能创新生态;此次书生通用大模型体系全面升级,模型家族进一步丰富,能力更强,覆盖模态和任务更广。”在全面升级的同时,书生·浦语也正式开源了一个70亿参数的轻量级版本InternLM-7B,以及贯穿数据、预训练、微调、部署和评测五大环节的全链条工具体系。上海AI实验室林达华教授上海AI实验室林达华教授表示:“在大模型时代,创新仍旧是人工智能技术进步的源动力;而基座模型和相关的工具体系则是大模型创新的技术基石。通过“书生·浦语”的高质量全方位开源开放,我们将助力大模型的创新和应用,让更多的领域和行业可以受惠于大模型变革的浪潮。”大师论道:共商AI过去与未来论坛现场,两位AI顶级学者对人工智能研究的前沿课题进行了回溯与展望。图灵奖得主、美国科学院院士、美国工程院院士、谷歌杰出工程师DavidA.Patterson(大卫·帕特森),香港科技大学首席副校长、英国皇家工程院院士郭毅可分别带来了主题演讲。DavidA.Patterson发表视频演讲DavidA.Patterson发表了题为《AdecadeofMachineLearningAccelerators:LessonsLearnedandCarbonFootprint》的视频演讲。他提到,当前训练某一模型需要产生大量碳排放,如果进一步提升模型准确度,排放数字可能会更大。而在未来,我们有办法让机器学习的能耗和碳排放降低。研究人员有望从模型、硬件、数据中心能效、数据中心位置四方面协同着手,大幅降低机器学习的能耗与碳排放。郭毅可发表主题演讲在主题为《TheHumanUseofHumanBeing:UniversityEducationintheAIEra(人有人的用处:人工智能时代的大学教育)》的演讲中,郭毅可表示,生成式人工智能对教育的影响是根本性的,人工智能赋能的时代,教师及学习者都更需要创造力和批判思维能力。“我相信人有人的用处,我觉得聪明的我们应该用我们创作的机器培养更聪明的人,而这些人又去创造更聪明的机器,更聪明的机器培养更聪明的人,这是一个健康的循环。”跨界创新:现实比电影更科幻本次科学前沿大会,新设跨界对话环节,中国工程院院士、美国艺术与科学院院士、清华大学智能产业研究院院长张亚勤与电影《流浪地球》系列导演、北京电影家协会副主席郭帆,围绕AIGC的相关话题开展了一场跨界对谈。对谈由上海交通大学副教授、电影制片人马瑞青主持。“现实比电影更科幻”跨界对话郭帆表示:“随着人工智能的发展,逐步进入电影工业化3.0时代,未来,怎么去构思、怎么去拍摄、怎么去宣发,甚至到后期我们放映的影院是什么样的形态,都需要我们重新去理解和认知。我们希望能尽快了解AI在这些场景的应用,搭建起电影工业3.0的雏形。”张亚勤认为,AIGC已经取得了一些突破,但本质上仍是人类的工具,真正的创作、创造、想象力、灵感,还是要来自于艺术家和创作者。科学家、工程师会发明新的算法,不断提升画面质量,增进语义、镜头、场景的连贯性,帮助电影从前期的构思到后期的制作,但不会取代创作本身。圆桌对话:AI如何保障人类社会的可持续和良性发展随着模型规模的不断扩大和性能的不断提升,大模型已成为推动人机交互革命的重要力量。由林达华教授主持,加拿大工程院外籍院士、IEEE/IAPR/CAAIFellow、HiDream.ai创始人兼首席执行官梅涛,清华大学教授唐杰,复旦大学教授邱锡鹏,普林斯顿大学教授王梦迪,南洋理工大学助理教授潘新钢,微软研究院高级研究员杨健伟以及上海AI实验室青年科学家戴勃展开了以“大模型驱动的交互新范式”为主题的圆桌讨论。人工智能如何赋能科学研究日益成为科学家们关心的话题。大会围绕“AIforEarth”召集全球地球科学专家展开讨论。对话由上海AI实验室教授欧阳万里主持,聚焦于AI技术在地球系统基础研究的最新技术进展和成果,以及AI大模型在地球科学基础研究领域的挑战和发展趋势。美国工程院院士、中国科学技术大学讲席教授张捷,国家气象中心副主任代刊,欧洲中期天气预报中心副总干事兼预报部主任FlorianPappenberger,慕尼黑工业大学教授NiklasBoers,北京大学长聘副教授林金泰及上海AI实验室青年科学家白磊共同开展了主题为“AIforEarth:BuildingaSustainableFuture”的圆桌对话。四个小时的大会,见证了前沿成果的发布与AI从业者的理想和热忱。WAIC科学前沿全体会议将继续承载学术前沿性与国际开放性的属性,成为铭刻全球AI科研成就的里程碑。海量资讯、精准解读,尽在新浪财经APP什么是人工智能
什么是人工智能
人工智能(ArtificialIntelligence,简称“AI”)自诞生之日起,其定义与内涵就一直存在争议。从字面上看,AI由“人工”和“智能”两词构成,其核心是智能。因此,人工智能首先是智能的一种。但是人工智能是人造的,而非自然形成的智能(如我们人类的智能就是经过长期的进化而形成的一种生物智能)。进一步理解人工智能的关键,在于理解“智能是什么”,这其实是一个难以回答的问题。一个普遍的认识是“智能是利用知识解决问题的能力”。作为“万物之灵长”的人类,其智能很大程度上就体现在人类能够发现知识并利用知识解决各类问题。人工智能的研究与实践的一个重要目标就是回答“智能是什么”这一问题。对这个问题的回答,将成为我们这代人甚至后面几代人共同努力的方向与目标。
如果需要给人工智能下一个定义,可以表述为:人工智能是通过智能机器延伸、增强人类改造自然和治理社会能力的科学与技术。人工智能首先是一门科学,因为我们需要解释智能的本质,需要回答智能能否计算、如何计算等科学问题。人工智能更是一项工程,因为我们需要让机器实现对于人类智能的模拟,从而解决需要人类智能才能解决的问题。因此,人工智能兼有科学与工程的属性。也正是这个原因,决定了人工智能的跨学科和综合特性。人工智能涉及哲学、心理学、数学、语言学、计算机等多个学科。人工智能的最终目标不是发展自主的机器智能,而是借助人工智能增强人类认识世界、改造世界的能力。拓展和延伸人类的智能,并最终造福人类社会,是发展人工智能的根本使命,也是唯一使命。人工智能是以人类智能为模板进行拓印与塑形的,理解与模拟人类智能是人工智能实现的基本路径。人类智能,外观体现为行为,内察体现为思维。人工智能的研究与实践不论其形式如何不同,其最终落脚点要么是让机器具备人类身体的智能行为能力,要么是让机器具备人类心灵的复杂思维能力。
人类的智能行为能力体现在其身体的感知与运动能力。我们的身体具有五官与四肢。我们通过五官识音辨声、识图辨形、辨别气味等,通过四肢操纵物体、运动身体,从而实现身体与环境的复杂交互。机器实现这些能力需要具备模式识别与反馈控制能力。比如,为了识别一个手写字是不是“0”,机器必须能够从手写体输入数据中识别出“0”所对应的书写模式。模式识别能力是我们五官所具备的基本能力。我们人类的四肢能够十分柔韧、灵活地做出各类动作,实现各类物体操纵,这背后体现的是人类四肢与环境的强大交互能力。比如机械手臂在抓举物品时,需要实时感知物品的位置以及抓举的力度,从而及时调整抓举的动作与姿态,最终完成抓举动作。近年来,机器在模式识别与运动控制等能力上飞速发展,已经初步达到人类水平。以感知数据中的模式、物理世界的状态为主,让机器具备人类的智能行为为主要目标的人工智能研究和实践,我们称之为“感知派”。
人类的智能更为鲜明地体现在人类的复杂心智上。人类的心智活动十分多样,包括语言理解、场景理解、调度规划、智能检索、学习归纳、推理决策等。塑造人类心智能力的器官是我们的大脑。理解大脑的运作机制,从而实现类脑智能,一直以来是科学家们持之以恒为之奋斗的目标之一。随着人工智能的发展,让机器具有一颗聪慧的大脑,已被迫切地提上议事日程。有身无心的机器就好比没有灵魂的“僵尸”,虽然也能解决很多问题,但是难以进入人类社会,成为人类有趣的“伙伴”。如果人工智能的发展仅是停留在感知与运动阶段,机器只是达到了一般动物的智能水平,而真正意义上使得人类从动物本性中脱胎而出的是人类独有的心智能力。虽然动物也有大脑,也有一定的心智水平,但是人类心智与动物心智的根本差别在于人类的认知能力。认知能力是指人脑接受外界信息,经过加工处理,转换成内在的心理活动,从而形成对世界的认知体验的过程。它包括时空认知、因果认知、语言认知、文化认知等方面。很显然,目前只有人类具有认知能力,以“认知”为基础的人工智能研究和实践,被称为“认知派”,将是未来人工智能研究与实践的焦点。
值得注意的是,虽然人类是实现人工智能的模板,但是人工智能在当下的实践已经不单单以“类人”为目标,很多时候是远超人类水平的。人类的特定智能很多情况下是有局限的。比如,我们在决定买哪本人工智能教材时,其决策要素一般不超过5—7个,而机器则可以同时考虑数以百万计的决策要素进行判断。人类感知的物理范围是十分有限的,而机器视觉可以识别数千米范围内的目标。因此,在很多单项智能上,人类被机器超越只是时间问题,如计算、下棋、识图、辨声等。人工智能的发展进程必定是我们见证人类单项智能被机器逐步超越的过程。但是有一个至关重要的奖项,智能的“全能冠军”,却是机器难以从人类手中夺走的。无数个智能的单项冠军也难以企及这一“全能冠军”的智能水平。这就引出了人工智能的强弱之分的话题。
人工智能除了有“感知”与“认知”之分,亦有“强”“弱”之分。任何一台普通的计算器在数值运算方面的能力远超我们人类最聪明的头脑,但是不会有人觉得他比3岁的儿童更智能。其背后的根本原因在于,计算器只能胜任数值计算这一单项任务,而3岁儿童却能胜任几乎无法穷举的任务,如识别父母、寻找奶瓶、辨别声音等。因此,智能的强弱很大程度上体现在其通用或单一的程度。强的智能是能够胜任任何任务求解所需要的智能,而弱的智能仅限于解决某个特定任务,强人工智能的实现显然远远难于弱人工智能。当前取得实际应用效果的仍以弱人工智能为主。实现强人工智能任重道远,但却不可回避。因为强人工智能解决的是人工智能的根本难题:现实世界的开放性。现实世界是复杂的,真实任务是多样的,而我们的计算机当前只能胜任预定义的任务与场景,一旦碰到从未见过的案例、样本、场景,就显得无能为力。努力提升机器智能的适应性,以及对于开放性的应对能力,已经成为人工智能最为重要的研究课题之一。
值得注意的是,人工智能仍然是个不断发展中的学科,其内涵仍在不断丰富与完善,一些新的研究视角在为人工智能持续增添新的内涵,如AI的安全性与可控性、AI的黑盒化与可解释、AI与人文学科、AI与社会发展、AI与脑科学等,这些新的研究视角在持续推动AI概念的发展与完善。
人工智能发展的历程
“理想很丰满,现实很骨感”,“柳暗花明又一村”,用这两句话来表达人工智能的发展历程是再恰当不过的了。纵观人工智能的发展历程,大体可分为三次高潮和两个低谷期。
1. 人工智能发展的第一次高潮
20世纪40至50年代,来自不同领域的一批科学家开始探讨制造人工大脑的可能性,这是人工智能问题的雏形。1943年,美国麻省理工学院的两位科学家沃伦·麦卡洛克(WarrenMcCulloch)和沃尔特·皮茨(WalterPitts)提出了一种生物神经元的数学模型,使得利用计算机模拟的人工神经元成为可能。多个人工神经元连接在一起可以形成一个类似生物神经网络的网络结构(参见图引-1)。1957年,弗兰克·罗森勃拉特(FrankRosenblatt)提出了感知器模型,将神经网络研究推向工程实现。
1950年,英国计算机专家艾伦·图灵(AlanTuring)提出了著名的图灵测试,用来判断一台机器是否具有人类智能。它更像一场有趣的“模仿游戏”:由测试者向被测试者提出多个问题,根据被测试者的回答判断被测试者是人还是机器。如果有超过30%的测试者不能确定被测试者是人还是机器,那么就可以说这台机器具有人类智能(参见图引-2)。由于图灵测试只能测试机器是否具有智能的外在表现,随着人工智能的发展,它日益暴露出局限性。设想一下,如果将对话任务换成下围棋,我们现在显然无法再根据机器的围棋水平来判断对方是人还是机器。因为众所周知,机器在围棋游戏方面已经远超人类冠军水平。随着机器语音和对话能力的提升,我们也越来越难以判断为你服务的电话客服到底是机器还是人类。
[[358677]]
1956年,在美国汉诺威小镇的达特茅斯学院召开的一次研讨会上,一批各有所长的科学家聚在一起,讨论着一个当时被认为不切实际的主题——让逐渐成熟的计算机代替人类解决一些感知、认知乃至决策的问题。会议整整开了2个月,科学家们各执一词,谁都说服不了谁,最后有人提出了“人工智能”的说法。这次会议被公认为人工智能诞生的标志。同年,人工智能被确立为一门学科。
这一新兴学科的产生,很快就引起学术界的广泛关注,研究者纷至沓来,新课题层出不穷。从20世纪50年代后期到60年代,涌现出了一大批成功的AI程序和新的研究方向。有人开发了程序STUDENT,它能够解决高中程度的代数应用题,被认为是人工智能在自然语言处理领域早期的应用成果。有人创建了全世界最早的聊天机器人ELIZA,它可以使用英语和用户交流。ELIZA是一个早期的自然语言处理程序,它通过模式匹配和替代的方式来实现人机对话(其实只是按固定套路作答,机器并不理解语言的意义,实际上距离真正的人工智能还有很长的距离要走)。
20世纪60年代中期,人工智能研究在资金方面得到了大量资助,并且在世界各地建立了实验室。当时人工智能的研究人员们对未来充满信心,著名的科学家赫伯特·西蒙(HerbertSimon)甚至预言:“机器将能够在20年内完成人类可以做的任何工作。”还有的科学家认为“在一代人之内……创造‘人工智能’的问题将基本解决”。人工智能研究迎来了第一个“黄金”发展时期。
然而,现实并不像人们预期的那样乐观,人工智能的发展遭遇了瓶颈。主要的原因是:当时计算机的运算能力和数据处理能力较低,数据也相对匮乏,不能满足解决复杂问题的需要。人工智能步入第一次低谷期。
2. 人工智能发展的第二次高潮
进入20世纪80年代早期后,随着新兴的工业、商业、金融等行业的发展,人工智能研究作为附属于其他行业的辅助性手段与工具得到了一定的恢复。
这一时期比较有代表性的研究进展包括:
一是“专家系统”的出现。这是一种模拟人类专家知识和分析技能的人工智能系统,通过知识表示和知识推理技术,来模拟领域专家解决问题的过程。专家系统以知识库和推理机为核心,利用知识得到一个满意的解是系统的求解目标。著名的专家系统包括:ExSys(第一个商用的专家系统)、Mycin(一个诊断系统)等。
二是神经网络模型的再次兴起。大卫·鲁姆哈特(DavidRumelhart)等人于20世纪80年代提出的多层感知器及反向传播算法,优化了神经网络的训练方法。
这一时期比较有影响力的人工智能应用是日本的“第五代计算机项目”。20世纪80年代,日本提出了“第五代计算机项目”。它的主要目标之一是突破所谓的“冯·诺依曼瓶颈”(冯·诺依曼架构是以存储程序为核心思想的主流计算机体系结构,当时的日本学者认为这一体系结构只能实现有限的运算和信息处理,因此称之为“冯·诺依曼瓶颈”),实现具有推理以及知识处理能力的人工智能计算机。在第五代计算机项目的激励下,人工智能领域的研究项目得到推进。1985年,人工智能市场规模已超过十亿美元。
然而,好景不长。受限于当时有限的数据和算力,机器仍然难以应对复杂情形。比如,专家系统中的if-then规则在描述复杂问题时呈指数增长,有限的算力难以支撑这类复杂问题的解决。从1987年Lisp(人工智能程序设计的主要语言)机市场崩溃开始,人们对专家系统和人工智能失去信任,人工智能进入第二次低谷期。
3. 人工智能发展的第三次高潮
始于20世纪90年代末和本世纪初,人工智能再一次悄然崛起。2006年,加拿大多伦多大学的杰弗里·辛顿(GeoffreyHinton)教授及其学生提出了深度学习,并迅速在图像识别、语音识别、游戏和搜索引擎等领域获得显著效果。除了以深度学习为代表算法的这一原因之外,这一阶段的成功还得益于计算机计算能力的提升以及各行各业海量数据的累积。
这一波人工智能浪潮仍在发展,已发生的比较具有代表性的事件有:
一是计算机与人类的棋坛博弈。1997年5月11日,深蓝成为第一个击败卫冕国际象棋世界冠军加里·卡斯帕罗夫的计算机国际象棋系统。2016年3月,阿尔法围棋(AlphaGo)以4∶1击败李世石,成为第一个击败职业围棋世界冠军的电脑围棋程序。2017年5月,阿尔法围棋在中国乌镇围棋峰会的三局比赛中,击败了当时世界排名第一的中国棋手柯洁。在这个基础上,经过强化学习训练后,阿法元(AlphaGoZero)无需人类经验,通过自我博弈,以100∶0击败阿尔法围棋。
二是机器在图像识别与语音识别等任务中达到人类水平。图像处理任务中的错误率自2011年以来显著下降。在计算机视觉领域,如手写数字体识别数据集上,神经网络的准确率已经超过人类的平均准确率。在语音识别方面,科大讯飞等公司的语音识别率高达98%(2018年的水平),语音识别水平在2016年就已经达到了人类水平。
三是机器在语言理解等相关任务上取得长足的进步。让机器具备理解人类自然语言的能力是人工智能发展历程中具有里程碑意义的任务。更有专家认为,语言理解是人工智能桂冠上的明珠。近年来,得益于深度学习模型和大规模语料,机器在一系列语言理解任务中攻城略地。比如在斯坦福问答数据集(StanfordQuestionAnsweringDataset,简称“SQuAD”)文本理解挑战赛上,早在2018年年初,来自阿里的研究团队所提出的机器阅读理解模型就取得超过人类水平的准确率。在2018年的谷歌I/O大会上,谷歌展示了一段谷歌助理(谷歌的一个应用软件)与人类长达数分钟的电话,现场观众几乎无法分辨出谁是机器,谁是人类。此后,各类客服电话大量由机器代替,智能客服的成功应用大幅降低了人工客服成本。
这些事件的发生,让人们充分认识到人工智能技术所蕴含的经济价值与社会潜能。人们对人工智能技术的认识由此上升到了一个前所未有的高度,从而极大地推动了人工智能技术的发展。
人工智能研究的不同视角
人工智能是个庞杂的学科,不同的视角对人工智能的理解不尽相同。让我们来了解一下人工智能研究中主要学术流派的看法吧!
1. 符号主义流派是这样认为的
符号主义流派认为人工智能源于数理逻辑,又称“逻辑主义流派”。数理逻辑从19世纪末起获得迅速发展,到20世纪30年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统,其代表性成果为启发式程序LT(逻辑理论家),证明了38条数学定理,表明应用计算机研究人的思维过程,可以模拟人类智能活动。
符号主义认为人类的认知过程是符号操作与运算的过程,主张用公理和逻辑体系搭建一套人工智能系统。符号主义认为,知识表示、知识推理和知识应用是人工智能的核心。知识可以用符号来表示,认知是符号加工的过程,推理是使用理智从某些前提产生结论的行动。符号主义者致力于用计算机的符号操作来模拟人的认知过程,其实质就是模拟人的左脑抽象逻辑思维。符号主义者最早采用了“人工智能”这个术语,后来又发展了专家系统、知识工程理论与技术,并在20世纪80年代取得了很大发展。
符号主义流派曾长期一枝独秀,为人工智能的发展作出重要贡献,尤其是专家系统的成功开发与应用,为人工智能走向工程应用、实现理论联系实际具有重要意义。在人工智能的其他学派出现之后,符号主义仍然是人工智能的主流学派之一。
2. 联结主义流派是这样认为的
联结主义学派,又称“仿生学派”或“生理学派”,其主要关注神经网络及神经网络间的联结机制和学习算法。联结主义认为,人工智能源于仿生学,特别是人脑模型的研究。联结主义从神经元开始,进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。联结主义学派从神经生理学和认知科学的研究成果出发,把人的智能归结为人脑的高层活动的结果,强调智能活动是由大量简单的单元通过复杂的相互联结后并行运行的结果,其中人工神经网络就是其代表性技术。
联结主义发端于1943年,诞生了生物神经元的计算模型“M-P模型”,其后经历了1957年“感知器”模型,1982年Hopfield模型以及1986年提出的反向传播算法等代表性事件。联结主义在近期的代表性进展就是深度学习。2012年,在ImageNet大型视觉识别挑战赛中,深度学习模型以绝对领先的成绩拔得头筹。随着硬件技术的发展,深度学习成为当下实现人工智能的主流技术之一。
符号主义与联结主义的发展呈现出此起彼落的态势。事实上,两者各有其价值与意义,对于人工智能的发展都是不可或缺的,应该协同并进、共同促进人工智能的发展。符号主义从宏观上(人类的思维过程)模拟人类的认知过程,而联结主义则从微观上(神经网络的结构与参数)实现对于人脑功能的模拟。从当前人工智能发展趋势来看,由联结主义实现模式识别等初步感知任务,进而将相关结果输入符号主义的相关系统中,实现深度的推理与解释,是未来人工智能发展的基本模式。
3. 行为主义流派是这样认为的
行为主义流派,又称“进化主义流派”或“控制论学派”。行为主义流派认为人工智能源于控制论,研究内容包括生命现象的仿生系统、人工建模与仿真、进化动力学、人工生命的计算理论、进化与学习综合系统以及人工生命的应用等。行为主义认为,人工智能可以像人类智能一样逐步进化,智能体的智能行为只能通过其与现实世界及周围环境的交互而表现出来。
控制论思想早在20世纪四五十年代就成为时代思潮的重要部分,影响了早期的人工智能研究者。美国数学家诺伯特·维纳(NorbertWiener)等人提出的控制论和自组织系统以及我国科学家钱学森等人提出的工程控制论和生物控制论,影响了许多领域。早期的研究工作重点是模拟人在控制过程中的智能行为和作用,如对自寻优、自适应、自校正、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制。到20世纪六七十年代,上述这些控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子,并在八十年代诞生了智能控制和智能机器人系统。
直到20世纪末,行为主义流派才以人工智能新学派的面孔出现,引起许多人的关注。这一学派的代表作首推美国麻省理工学院的罗德尼·布鲁克斯(RodneyBrooks)所研发的六足行走机器人,它被看作新一代的“控制论动物”,是一个基于感知—动作模式的模拟昆虫行为的控制系统。事实上,这种通过与环境自适应交互所形成的智能,是一种“没有推理的智能”。近期,在深度强化学习等技术的推动下,机器人的环境交互能力得到显著提升,能跑会跳、满世界“溜达”的机器人已经逐步变成现实。
人工智能三要素
人工智能在近期的飞速发展,主要得益于数据的快速积累、计算能力的不断提升以及算法的改进优化。因此,人们把数据、算力和算法称为人工智能三要素。
1. 人工智能与大数据
什么是大数据?一般地说,大数据是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新的处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
大数据一般具有大量(Volume)、高速(Velocity)、多样(Variety)、低价值密度(Value)、真实性(Veracity)五个特点,也称其为大数据的5V特点。“大量”指数据体量极大,数据量从TB级别到PB级别;“高速”指数据产生和处理的速度非常快,如工业大数据应用中部署的各种传感器能够以每秒数个G的采集频率采集数据;“多样”指数据类型很多,如语音、文字、图片和视频等,不同类型的数据往往需要不同的处理手段;“低价值密度”指大量的数据中有价值的只有极少数,如监控视频中最有价值的数据往往只有几秒;“真实性”指追求高质量的数据,因为数据的规模并不能为决策提供帮助,数据的真实性和质量才是制定正确决策的关键。
大数据在现实的生产与生活中有着大量的实际应用。例如,天气预报就是基于大数据而对未来天气作出的预测。这些数据可以是一年前的,也可以是几年、几十年甚至更长时间的数据积累。又如,在智能商业、工业4.0、互联网服务、智慧金融等领域,大数据的运用使得这些领域发生了翻天覆地的变化和进步。
大数据所具有的海量数据的特质促进了计算机科学、信息科学、统计学等应用学科的飞速发展。与此同时,随着数据量的爆炸式增长,非结构化的数据和残缺的数据也随之增加,用传统的方式处理大数据会极大地损失数据中蕴含的价值。
当前,人工智能的发展集中体现在机器学习上。机器学习的两种重要方式——监督学习和无监督学习——均需要大数据的“喂养”。监督学习是机器学习的有效手段之一。监督学习过程中需要把有标注的样本“喂”给机器,而有标注的样本来自大数据,从这个意义来看,人工智能需要大数据。以深度学习为例,数据量越多,效果就越好。无监督学习则从海量数据中学习统计模式来解决问题,同样离不开大数据。
那么,是否数据越多,是否有标注的样本越多,效果就越好呢?有学者在图像的目标检测任务上进行了相关研究(参见图引-4),得到的结论是:一方面,随着训练数据的扩展,任务性能呈对数增长,即使训练图片规模达到3亿张,性能的上升也没有出现停滞;而另一方面,对数增长也意味着当数据量达到一定程度后,模型性能的提升效果就不再显著。
当前人工智能发展的另一个重要体现是大规模知识工程技术。知识工程是以构建专家系统为核心内容的学科,旨在利用专家知识解决问题。进入互联网时代之后,大规模开放性应用需要大规模的简单知识表示。知识图谱就是这样的知识表示,其本质是一个大规模语义网络,包含实体、概念及其之间的各类语义关系。
知识图谱的诞生使得知识工程迈入了大数据时代。传统工程依赖专家进行知识获取所导致的瓶颈被突破了,前所未有的算力、算法和数据的“汇聚”,使得大规模自动化知识获取成为可能。从互联网数十亿文本当中,利用自动抽取模型,可以自动获取数亿计的结构化知识。互联网时代的高质量UGC(用户贡献内容),比如问答、论坛、维基等为自动化知识获取提供了大量优质的数据来源。与大数据共生的众包平台,使得我们可以更有效地利用闲散的人力资源。正是在这些机会的合力作用下,人类从小规模知识时代迈进了大规模知识时代。知识图谱有望引领知识工程的复兴。更多的知识表示形式会在大数据的赋能下,解决更多的实际问题(参见图引-5,这是与一位足球明星有关的知识图谱)。
人工智能的第三次发展浪潮很大程度上是由大数据推动的,没有大数据的滋养,人工智能很难在当下取得突飞猛进的进步。当前人工智能的很多成功应用都发生在数据丰富的场景,如图像识别在准确率上的突破得益于大量普及的摄像头所采集的海量图像数据等。
2. 人工智能与算力
算力即计算能力。算力的显著增长,体现在计算机的数据存储容量和数据处理速度的快速提升(参见图引-6、图引-7),均呈现出指数增长的趋势。我国的超级计算机“神威·太湖之光”的持续性能为9.3亿亿次/秒,峰值性能可以达到12.5亿亿次/秒。算力的快速增长,一方面是由于摩尔定律(计算机硬件每隔一段时间便会翻倍升级)持续发挥作用,使得单体计算元器件的计算性能在增长。另一方面,以云计算为代表的性能扩容等技术也在持续发展。云计算能够将大规模廉价机器组织成高性能计算集群,提供匹配甚至远超大型机的计算能力。
人工智能的飞速发展离不开强大的算力。在人工智能概念刚刚被提出的时候,由于其计算能力的受限,当时并不能完成大规模并行计算与处理,人工智能系统能力比较薄弱。但是随着深度学习的流行,人工智能技术的发展对高性能算力提出了日益迫切的需求。深度学习主要以深度神经网络模型为学习模型,深度神经网络是从浅层神经网络发展而来的。深度学习模型的训练是个典型的高维参数优化问题。深度神经网络模型具有多层结构,这种多层结构带来了参数的指数增长。以BERT(BidirectionalEncoderRepresentationfromTransformers)为代表的语言模型多达3亿参数,最新的世界纪录是Nvidia训练出包含83亿参数的语言模型(2019年8月)。以BERT的3亿参数的模型训练为例,研发团队共消耗了16块云TPU(张量处理单元)近4天时间才能训练完成,其中每块云TPU能提供180TFLOPs(1TFLOPs意味着每秒1万亿次的浮点运算能力)算力和64GB内存。
国家间的人工智能之争已经在很大程度上演变为算力之争。华为公司推出的一系列AI计算芯片在一定程度上推动了我国人工智能发展的算力的提升。
3. 人工智能与算法
算法是计算机解决问题或者执行计算的指令序列。很多数学模型在具体运行时往往需要实现相应的算法,算法与模型已经成为人工智能发展的重要支撑。人工智能的相关算法类型众多,涉及搜索、规划、演化、协同与优化等一系列任务。当下,人工智能领域的快速发展尤为明显地体现在一系列新颖算法和模型的发展,特别是以深度学习为代表的机器学习算法的快速发展。机器学习是一种从观测数据(样本)中寻找规律,并利用学习到的规律(模型)对未知或无法观测的数据进行预测的方法。随着数据量的急剧增加,从大数据中发现统计规律,进而利用这些统计规律解决实际问题变得日益普遍。
当前大多数机器学习的本质是统计学习,即通过历史标注数据来拟合构建学习模型。以经典的线性回归为例,线性回归旨在从样本习得一个合适的线性映射f,使得对于输入变量x,经过
后能够得到正确的输出变量y。假设我们有房屋面积与价格之间的历史数据(比如表引-1所示,第一列表示60米2的房屋价格为300万,其他列以此类推)。这里的每一对房屋面积和价格数据(
)就是一个样本,所有样本的集合为(
),(
),…,(
)。显然我们关心的是根据房屋面积预测房屋价格。房屋面积
就是输入变量或者解释变量,房屋价格
是我们需要预测的变量,是输出变量,或称响应变量。从这些样本数据学习到的房价与房屋面积之间的关系,可以表示为一个函数f(每个输入产生确定的唯一的输出)。f接收某个房屋面积作为输入,预测相应的价格作为输出。例如,对于表格中不存在的85平方米的房屋,通过f函数我们就可以预测其价格。
为了学习房屋面积与房屋价格之间的函数关系,一种常见的学习方法是最小二乘法。首先假定f是简单的线性函数形式,也就是f(x)=a+bx,其中a,b是参数。所谓确定f的函数形式,就是确定a和b两个参数的具体值。因此对f的学习,就转换为对a和b两个参数的学习问题。很显然,如果f是一个好的函数,就应该尽可能与当前已经观测到的样本一致,也就是f(60)应该尽可能接近300万的真实价格。将这一期望推广到所有已观测样本,就有了如下的误差函数:
直观的理解是希望求得的线性函数(红色的直线)所预测的价格与实际价格累计平方误差最小。可以通过偏导数求得上述误差函数最小化时的参数a与b。根据求得的参数a与b,就可以完全确定函数f,从而可以根据任意面积进行房价预测(参见图引-8)。机器学习有着很多任务,上述线性回归只是最简单的一类。如果f是非线性函数,那么就是非线性回归问题。房价是一个连续数值,在有些任务中要预测的是一个离散量。例如,根据体温、血液指标等预测病人是否得了感冒(只需要判断是否感冒这两种情况),此时的机器学习问题就变成了分类问题。此外,我们经常需要对数据进行聚类,比如将客户自动聚类,从而分为不同人群。除了这些具体的问题模型外,机器学习还涉及众多算法,完成不同的任务,比如K近邻分类算法、基于“决策树”的分类算法、基于“支持向量机”的分类算法、K均值聚类算法、基于PCA的降维算法、基于梯度下降和进化算法的参数学习算法(如线性回归中的参数最优化学习)等。